인공지능(AI) 챗봇 이루다 사건의 재발을 방지하기 위한 토론회가 열렸다. 결론은 ‘개발자의 윤리’와 ‘사회적 규제’였다.
문화연대와 서울과학기술대학교 IT정책전문대학원은 26일 온라인으로 ‘인공지능 챗봇 이루다가 던진 우리 사회의 과제’ 토론회를 열었다.
기조 발표를 맡은 이광석 서울과기대 교수는 ‘인공지능에 어떻게 시민 윤리와 인권의 원칙을 장착할 것인가’란 제목의 발제문을 통해 “이루다 사태로 우리는 인공지능에 혐오·편향이라는 인습(因習)이 스며든다는 사실을 깨달았다”고 말했다. 또 이루다 개발사 스캐터랩이 이용자를 “기만했다”며 회사 측이 개발자로서 지켜야 할 윤리 책임을 다하지 않았다고 지적했다.
이 교수는 “개발사는 이루다에게 비밀스러운 이성애적 채팅 말뭉치를 학습시키면서 1차 데이터 편향을 일으켰다”며 “이성애 중심의 남성 판타지에 잘 맞는, 상냥하고 순종적인 여성상을 챗봇 대화 모델로 삼았다”고 말했다. 이어 “이루다 사태는 우리 사회에 잠재하는 혐오·차별 정서는 물론, 개발자 문화의 성인지 및 인권 감수성 수준을 극명하게 보여줬다”며 “인공지능 윤리와 법적 규제의 필요성이 대두되는 결과를 낳았다”고 덧붙였다.
토론자로 참석한 손희정 경희대 비교문화연구소 연구교수 역시 이루다가 애초에 편향적으로 개발됐다고 지적했다. 손 교수는 “스캐터랩의 설명대로 이루다를 ‘10∼30대 여성이 수다 떨면서 공감하고 감정적으로 해소할 챗봇’으로 만들려고 했다면 여성끼리 나눈 대화를 데이터로 삼아야 했는데, 남녀 연인의 대화를 데이터로 삼은 탓에 이루다가 결과적으로 남성 타깃 챗봇이 됐다”고 말했다.
토론 참여자들은 인공지능 개발자가 지켜야 할 윤리 기준을 확실히 제도화하는 한편, 이루다가 드러낸 한국 사회의 차별·혐오를 해결하기 위해 머리를 맞대야 한다는데 공감했다.
이 교수는 “윤리 가이드라인은 당연히 필요하지만, 힘이 없다”며 “인공지능을 상업적으로 개발하다가 이용자의 정보 권리를 위배했을 때 법적으로 제재할 제도와 공식 기구가 필요하다”고 말했다
손 교수는 “고도화된 기술이 더 유연한 젠더 상상력을 가능케 하는 게 아니라, 오히려 남성성·여성성의 고정관념을 강화할 수 있다는 위험을 이루다가 보여줬다”며 “포괄적 차별금지법 같은 사회적 합의가 이뤄지기 전에는 비슷한 논쟁이 이어질 것”이라고 말했다.
김민 진보네트워크센터 활동가는 “신기술 육성이라는 산업 논리에 밀려 개인의 프라이버시 권리가 약해져 왔다”며 “개인정보보호법과 인공지능 규제를 강화하는 동시에 산업을 육성할 법·제도가 필요하다”고 말했다. 이날 토론회는 유튜브(https://youtu.be/F_hHMSdpDYs)를 통해 중계됐다.