점선면 독자님들은 4년 전 이루다 사태를 기억하시나요? 2021년 인공지능(AI) 챗봇 ‘이루다’가 출시된 지 3주 만에 서비스가 중단된 일이 있었는데요. 이루다가 여성, 장애인, 성소수자 등에게 혐오·차별 표현을 한 사례가 알려졌기 때문이었어요.이를테면 이루다는 미투 운동에 대해 “절대 싫어. 미치지 않고서야”라고 답하거나, 여성전용헬스장에 대한 질문에 “시러(싫어) 거기 여자들 다 줘패고 싶을듯”이라고 답했습니다. 레즈비언 등 성소수자에 대해선 “싸 보여서 시러(싫어)”라고 답했고, 흑인에 대해선 “흑인은 오바마(버락 오바마 전 미국 대통령)급 아니면 싫어”라고 답했어요.이루다 사태를 계기로 한국 사회에서는 한때 ‘AI 윤리’ 문제가 화두로 떠올랐는데요. 4년이 지난 지금, AI는 혐오·차별 표현이 필터링된 데이터를 학습하고 있을까요? 최근 유엔(UN)여성기구 지식·파트너십 센터와 이화여자대학교 인공지능학과가 공동 주최한 컨퍼런스에서 발표된 한 연구결과에 따르면 답은 ...
2025.08.13 07:00