인공지능 길들이기

“우리는 개보다 잘 모르는 인공지능에 모든 걸 맡기고 있다”

김경학 기자

카이저슬라우테른 공대 츠바이크 교수

“수백년 함께 한 가축도 돌발 행동

지금보다 훨씬 더 투명해져야 하고

권한이 커지는 만큼 책임도 커져야”

카타리나 츠바이크 독일 카이저슬라우테른 공과대학 교수. (C)Felix Schmitt

카타리나 츠바이크 독일 카이저슬라우테른 공과대학 교수. (C)Felix Schmitt

“개들의 돌발적 행동도 이해하기 힘들 때가 있다. 진화나 번식 상의 이유로 개는 인간과 비슷한 측면이 많아서 직관적으로 왜 그런 행동을 하는지 추측할 수 있지만, 인공지능 같은 기계는 다르다. 이런 이유로 인공지능 시스템은 지금보다 훨씬 더 투명해져야 하고, 권한이 커지는 만큼 책임도 커져야 한다.”

카타리나 츠바이크 독일 카이저슬라우테른 공과대학 교수는 지난달 20일 경향신문과의 서면 인터뷰에서 인공지능에 대한 규제 마련이 시기상조가 아니냐는 질문에 “오늘날 인공지능 시스템의 기반이 되는 머신 러닝은 매우 불투명한 기술”이라며 이같이 답했다. 수백년간 함께 생활해온 가축도 이해할 수 없는 행동을 할 때 조심하면서 정작 인공지능을 들여다보거나 관리하려 하지 않는 건 모순이라는 취지다.

2018~2020년 독일 연방의회 인공지능 분야 전문조사위원회 위원을 역임한 츠바이크 교수는 인공지능 윤리 분야의 선구적인 컴퓨터과학자다. 생화학·생물정보학을 전공하고 통계물리학 등을 섭렵한 츠바이크 교수는 2012년 ‘사회정보학’ 과정을 개설해 학생들을 가르치고 있다.

사회정보학은 심리학·사회학·경제학·법학 등의 방법론을 활용해 정보기술의 영향과 부작용을 연구하는 분야다. 대학에서 인공지능 기술에 대한 투명성과 책임성을 강화해 신뢰할 수 있는 인공지능 기술을 연구하는 ‘알고리즘 책임성 연구소’를 만들어 운영하고 있다. 다음은 츠바이크 교수와의 일문일답.

챗GPT는 위키피디아 같은 검색 엔진이 아니다

- 알고리즘 책임성 연구소에서 어떤 연구를 하고 있나?

“소프트웨어로 계산된 결과를 언제 신뢰할 수 있는지에 대해 중점적으로 연구하고 있다. 컴퓨터가 계산을 잘못하는 경우는 거의 없다. 그러나 상황에 따라 그 결과가 의미 없을 수 있다. 예를 들어, 한 국가의 평균 소득은 그다지 의미가 없는 숫자다. 어떤 사람들은 평균 소득보다 훨씬 더 많이 벌기 때문이다. 이런 상황에서는 평균 소득보다 전체 인구의 50%가 달성할 수 있는 최소한의 소득을 논하는 것이 더 의미가 있을 것이다. 이것을 중앙값이라고 한다. 어떤 종류의 측정 또는 방법이 언제 최고의 통찰력을 줄 수 있을지 이해하는 것이 연구소가 지향하는 바다.”

- 워낙 화제인 챗GPT부터 묻고 싶다. 할루시네이션(hallucination·‘환각’이라는 의미로 챗GPT의 경우 참인지 거짓인지 모르고 참인 것처럼 답변하는 것을 말함)이 가장 큰 문제로 대두된다.

“모든 도구는 적합한 곳에 사용해야 한다. 챗GPT는 위키피디아 같은 검색 엔진이 아니다. 인용하면 안 된다. 어떤 사실에 대해 알기 위해 챗GPT를 사용해서는 안 된다. 오픈AI가 챗GPT를 사실에 기반해 답하는 모델이라 밝히고 있는데 유감이다. 챗GPT는 사실을 묻는 말에 답할 수 없고, 수학을 할 수 없으며, 학생의 답안지에 점수를 매길 수 없다는 점을 분명히 밝힐 필요가 있다.”

- 가짜뉴스를 대량 생산하는 도구로 악용될 수 있다는 우려가 나온다. 챗GPT의 장단점은 무엇이라고 생각하고, 단점을 보완하기 위해 무엇을 해야 한다고 생각하는가?

“챗GPT나 그와 같은 생성 모델을 활용해 가짜 웹사이트를 만드는 행위를 중점적으로 들여다보고 있다. 검색 엔진이 거짓을 안정적으로 감지하는 것은 매우 어려울 것이다. 이는 인간 ‘팩트 체커’의 필요성을 증가시킨다. 언론은 오랫동안 유일하게 신뢰할 수 있는 팩트 체커였다. 이 때문에 고품질 저널리즘의 새로운 전성기가 도래할 수 있다.”

- 구글도 언어 생성 모델을 만들겠다고 하는 등 속도전이 벌어지고 있다. 이미지 또는 비디오 생성 모델과 같은 다양한 생성 모델이 논의되고 있다. 이런 상황을 어떻게 보고 있나?

“구글은 딥러닝을 가능하게 한 인공신경망 구조를 발명한 기업 중 하나이고, 모두가 사용할 수 있도록 공개한 기업이다. 그들이 없었다면 현재와 같은 상황까지 오는 데 훨씬 더 시간이 필요했을 것이다. 그래서 그들의 언어 모델이 더 궁금하다. 화가들이 이미지 생성 모델에 대해 우려하는 것처럼 다른 생성 모델 역시 많은 사회적 과정을 거쳐야 할 것으로 본다. 한편으로는 이런 생성 모델이 창의성을 촉발하는 데 활용될 수 있어 인간의 예술 작품을 향상할 수도 있으리라 생각한다.”

- 생성 모델 특성상 저작권 문제도 크게 논란이 되고 있다. 저작권 분쟁을 방지하기 위해서는 어떻게 해야 한다고 보나?

“저작권 논란은 저작료를 지급한 이미지 데이터 세트가 거래되는 시장이 있다는 것을 보여준다. 저작권 문제가 해결된 데이터 세트로 학습한 모델만 사용할 수 있도록 하면 저작권 논란은 충분히 해결될 것으로 생각한다.”

우리는 항상 대기업 소유주가 알고리즘과 소프트웨어가 작동하는 방식을 지시할 수 있음을 인식해야 한다

- 알고리즘 조작에 관해 묻고 싶다. 한국의 대표적인 IT 기업 네이버와 카카오는 최근 특정 목적을 이루기 위한 알고리즘 조정으로 감독 당국으로부터 시정 명령과 과징금을 부과받았다.

“우리는 정렬 알고리즘에 대해 더 논의할 필요가 있다고 생각한다. 결과를 정렬하는 방법에는 여러 가지가 있다. 정렬 방식은 가격부터 다른 이용자들의 평가, 판매량 등 매우 다양하다. 오히려 단순한 정렬일수록 객관적일 수 있다. 여러 요소를 반영한 복잡한 정렬은 더 객관적이지도 않고, 일부는 완전히 악의적으로도 쓰인다. 제품 생산자가 비용을 지급하면 상위에 배치하는 게 악의의 대표적인 사례다. 이 때문에 정렬 알고리즘에 더 많은 투명성이 필요하다. 동시에 투명성 강화는 상단 배치를 노리는 제품 생산자의 공략 대상이 될 수 있다. 긍정적 후기가 많을수록 상단에 배치된다는 게 공개되면, 누군가는 돈으로 후기를 써줄 이들을 찾을 것이다. 이런 측면에서 투명성과 특정 목적을 위한 조정 방지의 균형점을 찾는 건 어려운 일이다.”

- 트위터 최고경영자(CEO) 일론 머스크는 최근 트위터 직원들에게 자신의 트윗을 더 많이 노출하도록 알고리즘을 변경하라고 지시했다. 알고리즘의 가장 큰 문제 중 하나는 특정 사람이나 기업이 원하는 결과를 내기 위해 충분히 조작할 수 있다는 점인 것 같다.

“그렇다. 우리는 항상 대기업 소유주가 알고리즘과 소프트웨어가 작동하는 방식을 지시할 수 있음을 인식해야 한다. 삶의 중요한 측면에서 이러한 일이 발생하지 않도록 시민이나 소비자, 유권자를 보호하기 위한 법률이 필요하다. 유럽연합(EU)에서는 조만간 이들을 보호할 법이 시행된다.”

- EU 인공지능법이 올해 본격적으로 논의되는 것으로 안다. EU 인공지능법의 목적과 핵심은 무엇이라고 생각하나? 큰 이견 없이 올해 안에 삼자 합의를 이룰 수 있을까?(EU 집행위원회는 2021년 4월 인공지능법 제정안 초안을 공개했다. 법안이 실제로 제정되려면 EU 의회, 이사회와 합의가 필요하다.)

“나는 인공지능법이 올해나 내년에 삼자 합의를 통과할 것으로 기대한다. 인공지능법의 주요 목적은 인공지능의 결과물을 보다 이해하기 쉽고 책임 있게 만드는 것이다. 이 법의 초안은 정치인과 업계, 소비가 간의 오랜 논의를 거치며 여러 차례 바뀌고 조정됐다. 입법 동향에 관해 관심은 크지만, 법률 지식이 부족한 컴퓨터 과학자로서 향후 행보를 예측하기는 쉽지 않다.”

- EU의 인공지능법을 보면 ‘고위험 인공지능’의 범주도 다소 불분명해 보인다.

“EU의 인공지능법은 계속 조정돼야 하는 법이다. 어떤 것이 고위험 인공지능인지 범주를 미리 파악하기는 매우 어렵다. 규제와 혁신 사이에서 균형을 찾아야 한다.”

인공지능은 하나의 기술이 아니다. 인간에게 위험한 기술인지 도움이 되는지는 활용되는 상황에 따라 크게 달라진다

- 한국 국회도 인공지능 기본법을 제정하기 위해 빠르게 움직이고 있다. 그러나 한국 정부는 아직 인공지능 기술과 산업 수준이 규제를 논의하기에는 이르다고 보고 민간 자율규제에 무게를 두고 있다. 반대편에서는 인공지능의 범용성과 파급력을 고려해 법적 규제가 시급하다고 주장한다. 이 문제에 대한 당신의 생각을 듣고 싶다.

“나는 더 많은 규제가 필요하다고 생각해 첫번째 책(<무자비한 알고리즘>)을 썼다. 문제는 오늘날 인공지능 시스템의 기반이 되는 머신 러닝이 매우 불투명한 기술이라는 점이다. 면멸히 관찰하면 어느 정도 신뢰할 수는 있지만, 왜 그런 결과를 내놨는지 완전히 이해할 수는 없다. 나는 가축에 비유하고 싶다. 우리는 수백년 동안 개나 다른 동물들을 훈련하고 신뢰해 왔다. 그러나 그런 동물들도 가끔 아이를 무는 등 주인이 이해할 수 없는 행동을 보인다. 나는 진화나 번식상의 이유로 인간은 여전히 개와 상당히 가깝다고 본다. 동물이 세상을 인식하는 방식을 완전히 이해할 수는 없지만, 직관적으로 알 수 있는 측면이 있다. 보통 개들이 보이는 행동은 배고픔, 고통, 행복, 애정과 같은 내부적 요인 때문이라는 것을 이해한다. 그래서 개가 비정상적으로 행동할 때 우리는 주의를 기울인다. 예를 들어 누군가를 보고 갑자기 크게 짖는다거나 하면 나쁜 기억을 가진 전 주인이나 전 주인과 닮았는지 알아보려고 한다. 머신 러닝이 활용되는 인공지능의 접근 방식은 이와 매우 다르다. 인공지능이 어떻게 결과에 도달하는지 직관적으로 이해할 수 없기 때문에 더 많은 통찰력과 투명성, 책임성이 요구된다.”

- 한국의 인공지능 기본법의 구체적인 내용은 아직 발표되지 않았지만, 고위험 인공지능이나 인공지능위원회 등 EU의 인공지능법과 비슷한 부분이 많다. 반면 우선 허용, 사후 규제 등 다른 부분도 있다. 한국의 의원들에게 조언하고 싶은 부분이 있을까.

“나는 한국의 입법자들에게 조언할 수 있는 위치에 있지 않다고 생각한다. 다만 인공지능은 하나의 기술이 아니라는 점은 강조하고 싶다. 인간에게 위험한 기술인지 도움이 되는지는 활용되는 상황에 따라 크게 달라진다. 예를 들어 얼굴 인식 기술은 보안을 강화하려는 기업에서는 잘 사용될 수 있다. 그러나 공공장소인 기차역에서 범죄자를 식별하기 위해 사용될 때는 다르다. 범죄자로 잘못 인식된 사람들에게 큰 영향을 미치고, 잘못된 식별로 큰 비용을 유발할 가능성이 크다. 이렇게 광범위한 기술 분야를 규제하려는 시도는 쉽지 않기 때문에 ‘민첩한 마음가짐’이 필요하다. 컴퓨터 과학에서 소프트웨어의 민첩한 개발은 명확한 목표 아래 목표 달성 성공률을 지속해서 향상하기 위해 모니터링하는 것을 말한다. 만약 목표 달성 성공률에 도달하지 못하면 새로운 정보에 따라 프로젝트가 바뀐다. 세상이 너무 복잡해졌기 때문에 법을 만드는 데도 비슷한 접근 방식이 필요하다고 생각한다.”

- 법 제도는 기술 발전에 후행할 수밖에 없는 것 같다. 문제는 인공지능의 기술 발전 속도는 예측할 수 없다. 지금이야 어느 정도 법 제도가 따라가며 보완할 수 있지만, 향후 기계가 스스로 기술을 만들고 업그레이드하는 이른바 ‘특이점’이 온다면 법 제도를 만드는 것도 인공지능에 맡겨야 하는 걸까.

“지금은 인공지능에 ‘자가 학습’이 없고, 자아도 없다. 모든 것이 인간에 의해 조정된다. 특이점이 도래할지, 그게 언제일지 나도 모른다. 나의 일은 오늘날 잘 작동하는 인공지능 시스템을 우리가 신뢰할 수 있는 수준, 책임 있는 수준으로 만들기 위해 모든 주의를 기울이는 것이다. 최근 수년간의 연구를 보면 오늘날 활용되는 많은 인공지능 시스템이 실제로 사용하기 적절하지 않다는 것을 말하고 있다. 우리는 오늘날의 잘못 설계된 인공지능 시스템을 바꿔야 한다. 그것이 내가 몰두하고 있는 일이다.”

- 국가적·사회적 차원에서 인공지능의 문제점을 보완하고 해결하는 데 한계가 있을 것 같다. 인공지능을 직접 사용하는 개인의 역할이나 책임도 필요하다고 생각한다. 개인적 차원에서 우리 인간은 인공 지능을 어떻게 대해야 할까?

“기초적인 기술에 대해 아는 것이 중요하다고 생각한다. 기초적인 기술을 알고 있으면 챗GPT가 사실을 묻는 말에 안정적으로 답변할 수 없는 이유도 자연스럽게 알게 된다. 인공지능 모델이 어떻게 작동하는지 사람들에게 알리는 건 저와 같은 교육자, 언론의 의무다. 인공지능에 대해 알고 있으면 이걸 활용할지 말지를 더 잘 판단할 수 있을 것이다.”

- 끝으로 한국 독자들에게 전하고 싶은 말이 있나.

“인공지능에 대한 나의 견해에 관심을 가져줘 영광이다. 독일 출판사에서 내 책이 한국어로 먼저 번역될 것이라고 말했을 때, 정말 기뻤다. 민주 국가로서 우리는 많은 논의를 통해 인공지능의 위험성을 다룰 수 있는 좋은 방법을 찾아야 한다. 그래야만 자원이 제한된 이 지구에서 안전하게 살 수 있다.”


Today`s HOT
보랏빛 꽃향기~ 일본 등나무 축제 연방대법원 앞 트럼프 비난 시위 러시아 전승기념일 리허설 행진 친팔레스타인 시위 하는 에모리대 학생들
중국 선저우 18호 우주비행사 뉴올리언스 재즈 페스티벌 개막
아르메니아 대학살 109주년 파리 뇌 연구소 앞 동물실험 반대 시위
최정, 통산 468호 홈런 신기록! 케냐 나이로비 폭우로 홍수 기마경찰과 대치한 택사스대 학생들 앤잭데이 행진하는 호주 노병들
경향신문 회원을 위한 서비스입니다

경향신문 회원이 되시면 다양하고 풍부한 콘텐츠를 즐기실 수 있습니다.

  • 퀴즈
    풀기
  • 뉴스플리
  • 기사
    응원하기
  • 인스피아
    전문읽기
  • 회원
    혜택