오픈AI, 올트먼 축출 사태의 ‘여진’…‘인류 안전’ 연구 전담팀 결국 해체

노도현 기자

‘위험성’ ‘사업화’ 싸고 갈등 지속

챗GPT 개발사 오픈AI가 미래에 인간을 능가하는 ‘초인공지능’이 인류에게 위협이 되지 않도록 제어하는 방법을 연구하던 전담팀을 해체한 것으로 확인됐다. 핵심 역할을 한 공동창업자이자 수석과학자 일리야 수츠케버를 비롯해 해당 팀을 이끌었던 인물들이 줄줄이 퇴사했다.

지난해 11월 샘 올트먼 최고경영자(CEO) 축출 사태 이후에도 인공지능(AI) 개발과 사업화를 둘러싼 갈등이 지속되고 있다는 분석이 나온다. 지난 17일(현지시간) 미국 정보기술(IT)매체 와이어드 등에 따르면 오픈AI는 지난해 7월 꾸린 ‘초정렬팀(Superalignment)’을 해체하고 팀원들을 다른 팀으로 재배치하고 있다.

초정렬팀을 이끌던 수츠케버와 얀 레이케는 각각 지난 14일과 17일 엑스(옛 트위터)를 통해 ‘안전’을 강조했다.

수츠케버는 “오픈AI가 올트먼 등의 리더십 아래 안전하고 유익한 AGI(범용인공지능)를 구축할 것으로 확신한다”고 남겼다. 지난해 올트먼 CEO 해임 시도에 앞장섰던 그는 올트먼이 AI의 위험성에 충분히 주의를 기울이지 않은 채 사업을 구축하는 데만 열을 올리고 있다고 우려한 것으로 전해진다.

레이케는 “인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 노력”이라며 “오픈AI는 엄청난 책임을 지고 있지만 지난 몇년간 안전 문화와 프로세스는 반짝이는 제품 뒷전으로 밀려났다”고 지적했다. 지난 13일 오픈AI가 인간처럼 보고 듣고 말하는 ‘GPT-4o’를 공개하는 등 놀라운 기술을 선보이고 있지만, AI가 불러올 위험에는 관심을 두지 않았다는 것이다.

그레그 브록먼 오픈AI 사장과 올트먼 CEO는 안전을 중요하게 인식하고 있다는 취지의 성명을 냈다. 이들은 “매우 긴밀한 피드백 루프(AI 모델을 통해 나온 결과를 수집해 시스템을 개선하거나 재교육하는 순환 과정), 엄격한 테스트, 모든 단계에서 신중한 고려, 세계 최고 수준의 보안, 안전과 성능의 조화가 필요하다”고 밝혔다.


Today`s HOT
유도 대표팀의 구슬땀 단련 브라질 낙태 금지 법안 반대 시위 아르헨티나 개혁 법안에 반대 시위 이라크 정유공장 화재
이강인의 한 방! 중국에 1-0 승리 이드 알 아드하 앞둔 인도
칠레 폭우에 대피하는 주민들 50주년 맞은 루빅큐브
플라스틱 쓰레기 수출 막아달라 G7에 기후재정 촉구하는 필리핀 시위대 독일 연방의회에서 연설하는 젤렌스키 레바논 공습 산불 진화하는 소방기
경향신문 회원을 위한 서비스입니다

경향신문 회원이 되시면 다양하고 풍부한 콘텐츠를 즐기실 수 있습니다.

  • 퀴즈
    풀기
  • 뉴스플리
  • 기사
    응원하기
  • 인스피아
    전문읽기
  • 회원
    혜택