안창욱 광주과학기술원 인공지능연구소장
많이들 기억할 것이다. 2016년 3월 이세돌 9단과 인공지능(AI) ‘알파고’가 대국했다. 구글의 알파고가 이세돌 9단을 누른 순간, 인류는 큰 충격을 받았다. 바둑은 시작에 불과했다. 미국 오픈AI가 개발한 대화형 생성형 인공지능 ‘챗GPT’ 등장 후 AI는 더 고도화됐다. 최근 오픈AI가 공개한 ‘챗GPT-4o’는 사람처럼 보고 듣고 말하며 실시간으로 대화할 수 있다.
빠르게 진화하는 AI를 바라보는 시선도 엇갈리고 있다. AI에 경이로움을 느끼면서도, AI가 초래할 디스토피아적 미래를 우려하는 목소리가 높다. 하지만 AI는 우리 삶 속에 이미 깊숙이 들어와 있다. AI 알고리즘에 따라 콘텐츠를 소비하고 쇼핑도 한다. AI와 함께 살아갈 세상은 어떻게 펼쳐질까.
안창욱 광주과학기술원(GIST) 인공지능연구소장을 지난 4일 만나 ‘AI 전성시대’ 인간이 마주한 딜레마와 미래에 대해 물었다. 안 소장은 국내 최초로 AI 작곡가 ‘이봄’(EvoM)을 개발했다. 그는 AI가 인류를 지배하는 일은 없을 것이라고 했다. AI를 만드는 것도 인간이고 기술적으로 통제가 가능하다는 이유에서다. 그것보다는 AI 발달로 인류 스스로 소멸의 길로 갈 수 있는 위험이 더 크다고 경고했다. 그는 “2040년 정도면 마트에서 로봇을 살 수 있을 텐데 로봇이 집안일도 잘하고 소통에도 문제가 없으면 사람과의 관계가 더 이상 중요해지지 않게 될 것”이라며 “사람과 사람 사이의 연결이 줄어들면 인류가 멸종 위협을 받을 수밖에 없다”고 말했다. AI 규제에 대해선 “AI의 좋은 점과 나쁜 점을 구분하고, 가이드라인부터 만들어야 한다”고 했다. 인간 같은 로봇을 만들지 못하게 하는 규제는 필요하다고 했다. 결국 AI의 미래는 인간에게 달려 있다는 얘기다.
2040년 정도면 마트에서 로봇을 살 수 있을 텐데 로봇이 집안일도 잘하고 소통에도 문제가 없으면
사람과 사람의 관계가 더 이상 중요하지 않게 될 수도…결국 인류 멸종의 위협을 받을 수밖에 없어
알고리즘을 통해 AI에 대한 맹목적인 신뢰 생성 경계…이윤 추구 기업이 개발한 기술은 의심해 봐야
AI가 어떤 수준까지 진화할지 가늠 힘들지만, 아직은 태동기…지나친 선 규제 논의는 과잉 반응
- AI 알고리즘 추천에 따라 밖을 내다보는 세상에 살게 됐는데요. 알고리즘의 작동 방식은 뭔가요.
“실생활에서 가장 많이 경험하는 분야가 유튜브·쇼핑일 텐데요. 유튜브는 특정 시간대에 어떤 콘텐츠를 이용했는지 행동 패턴을 파악합니다. AI 알고리즘 관점에서 보면 두 가지가 있어요. 첫 번째는 사용자의 행동, 즉 내가 사용하는 데이터를 분석해 패턴을 파악하고요. 두 번째는 데이터 간 연관성인데, 이 두 개가 결합해 ‘개인 맞춤형’으로 추천하는 겁니다. 예전엔 연관성만으로 알고리즘 설계를 했어요. 뉴진스 음악을 좋아한다면, 비슷한 음악을 추천해주는 방식이었죠. 지금은 나만이 아니라 내가 시청한 영상들을 즐겨 보는 다른 사람들의 패턴까지 파악해 어떤 콘텐츠를 보여줄지 결정합니다. 쇼핑은 아마존이나 쿠팡 등에서 추천 상품을 보여주잖아요. 여기서 더 발전하면 내 구매 패턴을 정확하게 추정할 수 있게 됩니다. 결국 알고리즘이 내가 모르는 나를 알 수 있게 해주는 겁니다.”
- 그렇다면 AI 알고리즘이 연애·비즈니스 시장까지 깊숙이 침투한 비결은요.
“사람들에게 AI에 대한 맹목적 신뢰가 생긴 것 같아요. 지금 보면 AI가 안 들어가는 게 없어요. 사실 산업·기업에서 제공하는 많은 걸 열어보면 옛날하고 달라진 게 별로 없어요. 조금 더 복잡해진 정도인데 AI로 포장한 경우가 많아요. 결국은 데이팅 앱 같은 것도 옛날 방식으로 하면 사람들이 신뢰하지 않으니까 나온 거예요. 예전에 IBM이 개발한 인공지능 왓슨이 2011년 미국의 유명 퀴즈쇼 <제퍼디>에서 우승하면서 주목을 받았어요. 왓슨이 병원에 도입됐는데 당시 사람들이 의사가 진단을 내리면 왓슨의 진단과 동일하냐고 물어보고 그랬대요. 기술에 대한 무한 신뢰 얘기를 좀 더 해보면 테슬라 같은 케이스인데요. 개발자들이나 기술을 좀 아는 분들은 절대 자율주행 켜놓고 딴짓 안 해요. 그러다간 사고 날 수 도 있거든요. 기술에 대한 무한 신뢰는 좀 위험해요.”
- 추천 알고리즘에 내재한 문제도 있을 텐데요.
“쇼핑의 경우 소비 특성을 기준으로 그 사람의 취향과 선호를 파악해 상품을 추천하는 것이 작동 원리잖아요. 이 과정에서 악의적인 정보들을 끼워 넣을 수는 있겠죠. 일례로 특정 업체에서 신제품이 나오면, 그 업체에서 광고비 받고 목표 소비자 추천 목록에 끼워 넣을 수 있어요. 기업 이윤 극대화에 초점을 맞춰 비슷한 것들을 계속 노출시키며 타기팅해서 악의적인 조작을 할 수 있는 상황들이 일어날 수는 있어요. 그러나 이런 문제점은 기업 윤리와 관련된 것이라고 봐야죠. AI가 아니어도 우리는 이미 기업 마케팅에 많이 노출돼 있잖아요.”
- 이런 폐해는 뉴스 분야에서 더 심각합니다.
“AI 알고리즘이 특정한 연령대를 타깃으로 여론을 형성할 수 있을 법한 선택적 정보를 지속해서 노출시키는 부작용이 있을 수는 있습니다. 가짜뉴스랑은 조금 다른 이야기긴 한데, 편향된 정보를 계속해서 제공해줄 가능성은 분명히 있어요.”
- 최근 ‘챗GPT-4o’가 배우 스칼릿 조핸슨 목소리를 무단으로 도용했다는 논란에 휩싸였습니다.
“지금 AI 기술은 챗GPT 같은 생성형 AI 기술을 한꺼번에 따라가고 있는 추세거든요. 이 분야에서 가장 중요한 건 데이터예요. 그런데 AI 학습에 쓰이는 데이터에 대해서 동의를 받지 않아요. 데이터의 저작권을 침해하지 않는 게 중요하고요. 앞으로 법제화될 거예요. 지난달 소니뮤직이 글로벌 AI 기업에 서한을 보내 자사 데이터베이스에 있는 음원과 각종 콘텐츠를 허락 없이 사용하지 말라고 경고했어요. 이미지 생성 AI 미드저니도 소송이 걸렸었고요. 그러니까 두 가지 문제에 맞닥뜨리게 됩니다. 생성형 AI가 아무런 제약 없이 데이터를 빨아들여 결과물을 내놓는데 그 학습한 데이터에 대한 저작권을 어떻게 할지가 첫번째고, 다른 하나는 결과물이 기존의 저작물을 침해하면 안 된다는 겁니다. 저작권 문제는, 앞으로는 가능한 한 데이터를 조금 사용하는 생성형 AI를 개발하려는 방향으로 움직여야 되는 것 같고요. 출력 결과도 표절을 하면 안 된다는 건데 AI 윤리하고도 관련이 돼 있죠. 근데 또 사회적 선을 위해서 사용할 수 있는 연구를 많이 하고 있거든요. 재난·안전 분야도 있고 해서 논란의 여지가 있을 것 같아요.”
- 이 문제는 AI 기술 발전 과정에 잠재된 윤리 문제를 일깨우기도 했습니다.
“머지않은 미래엔 가정에 다 AI 로봇들이 있을 거예요. 로봇이 집안일도 돕고 말동무도 해주는 세상이 올 거예요. 마차 타고 다니던 시절 자동차가 처음 등장했을 때를 떠올려보면 돼요. 당시 사람들에게 자동차는 빠르긴 하지만 사람을 치어 죽일 수도 있는 흉물이었거든요. 하지만 자동차가 마차를 대체했잖아요. AI도 지금 그런 상황인 것이죠. 우리가 운전하려면 안전 교육도 받고 면허증도 따잖아요, 그런 것처럼 시간이 좀 흐르고 AI 윤리들이 정착되면, 마트 가서 집 안 청소할 AI 로봇을 쉽게 살 수 있는 거죠. 다만 사용하려면 윤리 교육을 받고 라이선스를 발급받아야 되는 시대가 될 거라고 예측합니다. 그러다 보면 자연스레 통제할 수 있게 되는 흐름으로 가지 않을까 하는 것이죠.”
- AI에 대한 통제력을 상실한다면 인류에게 암울한 미래가 펼쳐질 것이란 우려도 큽니다.
“AI가 이 속도로 발전하면 인간을 뛰어넘는 ‘AI 특이점’을 돌파할 것 같긴 해요. 결국 AI 스스로 결정하는 상황이 발생할 수 있느냐 없느냐의 문제인데, 거기에 대해선 아직까지는 아무도 답을 할 수 없고요. 막연하게 인간의 뇌에서 뉴런 간 정보 전달 통로 역할을 하는 시냅스와 비슷한 일을 하는 인공신경망이 수십조개 되면 AI 스스로 뭔가를 할 수 있지 않을까 하는데요. 그것은 기술자들이 통제 가능하다고 생각해요. 그보다는 더 크고 강력한 모델을 향한 맹목적인 경쟁이 문제예요. 거대 기업 간 경쟁이 치열하다 보니 조만간 엄청난 크기의 머신이 만들어질 가능성이 있어요. 그러면 웬만한 기업은 이런 초거대 AI 시스템을 갖추려고 할 겁니다. 하지만 이런 시스템을 가동하려면 엄청난 에너지가 들어요. 결국 기후위기 시대 글로벌 워밍(지구온난화)을 가속화할 위험이 있어요. 또 하나는 인류 스스로 소멸의 길을 택할 수도 있다는 겁니다. 2040년 정도면 우리도 마트에서 로봇을 살 수 있는 시대가 도래할 텐데요. 로봇이 집안일도 잘하고 소통에도 문제가 없으면 사람과의 관계가 더 이상 중요해지지 않는 겁니다. 결혼할 필요도, 자손 번성에 대한 니즈도 사라질 가능성이 있어요. 그러면 인류가 멸종 위협을 받을 수밖에요. 인간이 AI 통제 아래 놓일 수도 있지 않을까 걱정들 많이 하는데, 그보다는 사실 이런 위협이 더 빨리 올 거라고 보거든요. 이런 관점에서 정말 인간 같은 로봇은 만들지 못하게 규제해야 한다고 생각해요.”
- AI를 ‘어떻게 쓸지’를 두고 아직 우리는 사회적 합의가 형성되지 않았습니다. 시민단체들이 22대 국회에서 고위험 AI를 규제할 법안을 마련해야 한다고 주장합니다.
“너무 걱정을 많이 하는 것 같고요. 기존의 다른 기술 개발이 그랬던 것처럼, 새로운 기술이 나오면 처음에는 오용·남용될 수 있는 가능성이 많은 것처럼 보여요. 자동차·비행기 다 마찬가지였죠. 지금은 어떻게 보면 AI가 너무 빨리 발전하고 나중에 위협이 될 수도 있으니 규제하자는 방향으로 움직이는 경향이 없지 않아 있다고 봐요. 이보다는 기술이 주는 혜택에 좀 집중하면서, 소프트웨어한 규제를 좀 해야 된다고 생각해요. 그러니까 규제 법안부터 만들어야 된다기보다는 자연스러운 규제가 좀 필요한 것 같아요. 예를 들어 아이들이 게임을 하면, 학교에서 게임 중독·위험성에 대한 교육을 하는 것처럼 AI의 좋은 점과 나쁜 점을 구분하는 게 필요하고요. 규제보다는 가이드라인부터 만들어야 합니다.”
- 우선 허용하고 사후 규제하자는 얘긴가요.
“AI로 보이스 커버·딥페이크(이미지 합성) 만드는 기술이 일상화됐거든요. 정작 이를 함부로 쓰면 안 된다는 것을 시민들이 잘 몰라요. 최근 호주 정부가 상대방 동의 없이 딥페이크 음란물을 제작하거나 유포하는 경우 징역형에 처하는 입법을 추진하고 있다는 보도가 나왔던데요. 규제해야 하는 것은 맞지만, 보이스 커버나 딥페이크를 만드는 데 당사자 허락 없이 사용하는 것은 범죄에 해당한다는 인식을 심어주는 것이 더 중요해요. 유튜버들도 이런 인식이 없으니 그냥 막 올리거든요. 허락 없이 타인의 목소리를 사용할 경우 ‘퍼블리시티권(초상권)’ 침해에 해당한다는 걸 생각 안 해요. 학교에서도 이런 교육을 시켜야 하고 가이드라인이 필요해요.”
- 몇몇 국가들이 AI 혁명을 주도하고 있습니다. 유발 하라리는 19세기 산업혁명처럼 기술 종속이 되풀이될 수 있다고 하는데요.
“챗GPT 같은 경우는 수십조원이 들어갔어요. 몇몇 글로벌 대기업 외에는 섣불리 뛰어들기 어려워요. 솔직히 지금 한국에서 아무리 용을 써도 그들보다 잘할 수 있는 AI를 개발할 수 없거든요. 이런 상황이 이어지면 AI가 강력한 무기가 된다고 하기는 좀 그렇지만 어떠한 통제력을 가질 수는 있을 것 같긴 해요. 그래서 자체 AI를 개발하긴 해야 되는 상황이긴 합니다. 월 10만원씩 요금을 부과하겠다고 나오면, 이미 익숙해진 상황에선 자체 AI가 없으면 (챗GPT 등을) 쓸 수밖에 없죠.”
- 현시점에 우리나라에 필요한 것은 뭔가요.
“오랑캐를 이용해 오랑캐를 친다는 ‘이이제이’라는 말이 있잖아요. 사람이 AI를 법적으로 규제하는 것보다는 AI가 문제 될 수 있는 걸 잡아내는 기술을 개발하는 게 중요한 것 같습니다. 가짜뉴스도 AI가 판별할 수 있는 거고요. 딥페이크도 AI가 속성을 잘 알기 때문에 역으로 판별할 수도 있는 겁니다. 그런 기술 개발이 시작됐고요. 그런 연구들을 우리나라에서 좀 많이 했으면 좋겠어요. 그리고 큰돈을 들여서 기계를 계속 키우고 많은 데이터를 학습시켜 추론하는 이러한 방향의 연구는 아니라고 생각합니다. AI가 우리에게 좀 더 유용해지려면 교육을 잘 받아야 된다고 보거든요. 사람의 전문 지식을 잘 녹일 수 있는 AI. 그렇게 되면 사이즈도 줄고 사이즈가 줄어들면 글로벌 이슈도 떨어져요. 근데 왜 다들 한 방향으로만 달리고 있는지, 그 점이 좀 아쉽습니다.”
- AI와 인간은 공존할 수 있을까요.
“AI가 맥가이버 칼 같은 것이라고 생각해요. 사용하는 사람이 어떤 칼을 끄집어내느냐에 따라 나한테 도움을 줄 수도 위협을 줄 수도 있어요. 그래서 AI 사용에 있어서 진심인 자세가 중요하거든요. 경계하지도, 그렇다고 너무 맹목적으로 믿지도 말아야 해요. 거리를 두고 사용자의 입장에서 AI를 잘 활용하는 방법론을 터득하는 게 우리가 AI와 잘 살아가는 방향이 아닐까 합니다.”