이루다 사건 재발 방지 위해서는 ‘윤리’와 ‘규제’가 필요

홍진수 기자
26일 온라인으로 열린 ‘인공지능 챗봇 이루다가 던진 우리 사회의 과제’ 토론회에서 손희정 경희대 비교문화연구소 연구교수가 발언하고 있다. 유튜브 화면 캡처

26일 온라인으로 열린 ‘인공지능 챗봇 이루다가 던진 우리 사회의 과제’ 토론회에서 손희정 경희대 비교문화연구소 연구교수가 발언하고 있다. 유튜브 화면 캡처

인공지능(AI) 챗봇 이루다 사건의 재발을 방지하기 위한 토론회가 열렸다. 결론은 ‘개발자의 윤리’와 ‘사회적 규제’였다.

문화연대와 서울과학기술대학교 IT정책전문대학원은 26일 온라인으로 ‘인공지능 챗봇 이루다가 던진 우리 사회의 과제’ 토론회를 열었다.

기조 발표를 맡은 이광석 서울과기대 교수는 ‘인공지능에 어떻게 시민 윤리와 인권의 원칙을 장착할 것인가’란 제목의 발제문을 통해 “이루다 사태로 우리는 인공지능에 혐오·편향이라는 인습(因習)이 스며든다는 사실을 깨달았다”고 말했다. 또 이루다 개발사 스캐터랩이 이용자를 “기만했다”며 회사 측이 개발자로서 지켜야 할 윤리 책임을 다하지 않았다고 지적했다.

이 교수는 “개발사는 이루다에게 비밀스러운 이성애적 채팅 말뭉치를 학습시키면서 1차 데이터 편향을 일으켰다”며 “이성애 중심의 남성 판타지에 잘 맞는, 상냥하고 순종적인 여성상을 챗봇 대화 모델로 삼았다”고 말했다. 이어 “이루다 사태는 우리 사회에 잠재하는 혐오·차별 정서는 물론, 개발자 문화의 성인지 및 인권 감수성 수준을 극명하게 보여줬다”며 “인공지능 윤리와 법적 규제의 필요성이 대두되는 결과를 낳았다”고 덧붙였다.

토론자로 참석한 손희정 경희대 비교문화연구소 연구교수 역시 이루다가 애초에 편향적으로 개발됐다고 지적했다. 손 교수는 “스캐터랩의 설명대로 이루다를 ‘10∼30대 여성이 수다 떨면서 공감하고 감정적으로 해소할 챗봇’으로 만들려고 했다면 여성끼리 나눈 대화를 데이터로 삼아야 했는데, 남녀 연인의 대화를 데이터로 삼은 탓에 이루다가 결과적으로 남성 타깃 챗봇이 됐다”고 말했다.

토론 참여자들은 인공지능 개발자가 지켜야 할 윤리 기준을 확실히 제도화하는 한편, 이루다가 드러낸 한국 사회의 차별·혐오를 해결하기 위해 머리를 맞대야 한다는데 공감했다.

이 교수는 “윤리 가이드라인은 당연히 필요하지만, 힘이 없다”며 “인공지능을 상업적으로 개발하다가 이용자의 정보 권리를 위배했을 때 법적으로 제재할 제도와 공식 기구가 필요하다”고 말했다

손 교수는 “고도화된 기술이 더 유연한 젠더 상상력을 가능케 하는 게 아니라, 오히려 남성성·여성성의 고정관념을 강화할 수 있다는 위험을 이루다가 보여줬다”며 “포괄적 차별금지법 같은 사회적 합의가 이뤄지기 전에는 비슷한 논쟁이 이어질 것”이라고 말했다.

김민 진보네트워크센터 활동가는 “신기술 육성이라는 산업 논리에 밀려 개인의 프라이버시 권리가 약해져 왔다”며 “개인정보보호법과 인공지능 규제를 강화하는 동시에 산업을 육성할 법·제도가 필요하다”고 말했다. 이날 토론회는 유튜브(https://youtu.be/F_hHMSdpDYs)를 통해 중계됐다.


Today`s HOT
레바논에서 대피하는 터키 국민들 2024 노벨문학상 첫 한국 작가 한강 허리케인 밀턴, 플로리다 주를 강타하다. 네팔의 다샤인 축제에 가는 사람들의 발걸음
도미니카의 불법 체류 추방 정책에 이주 허가를 받는 아이티인들 사형 반대 캠페인 동참 촉구 시위
리투아니아 국회의원 선거, 많은 주민들이 참여하고 있다. 밤하늘의 상공에서 보여지는 오로라
대만의 국경절 기념행사 레바논 난민들을 도와주는 자원봉사자들 브라질의 극심한 가뭄 허리케인 커크, 프랑스 강타
경향신문 회원을 위한 서비스입니다

경향신문 회원이 되시면 다양하고 풍부한 콘텐츠를 즐기실 수 있습니다.

  • 퀴즈
    풀기
  • 뉴스플리
  • 기사
    응원하기
  • 인스피아
    전문읽기
  • 회원
    혜택