“인류를 이롭게 하자”며 11명의 동료들이 의기투합했다. 10년도 채 지나지 않아 이들은 가장 유능한 인공지능(AI)을 세상에 내놓으며 인류의 편의를 대폭 증진했다. 그리고 9명이 떠났다. 마지막 남은 리더는 이제 200조원이 넘는 슈퍼 기업의 정점에 홀로 걸터앉아 있다.
보고서를 쓰거나 학교 숙제를 할 때, 이제는 없으면 큰일 나는 ‘챗GPT’의 개발사 이야기다. 지난 2일(현지시간) 미국 오픈AI는 시장가치가 무려 208조원에 달한다는 평가를 받았다. 챗GPT를 내놓으며 생성형AI 시대를 열어젖힌 지 2년 만에 거둔 쾌거다. 모든 스타트업이 부러워할 커리어의 정점을 찍은 순간, 최고경영자(CEO) 샘 올트먼 곁에 남은 초기 동료는 이제 단 1명뿐이다. 이는 AI 기술의 안전·위험·윤리성을 둘러싼 회사 내부의 복잡다단한 긴장감을 반영하고 있다는 분석이 나온다.
영리기업 전환 앞두고···핵심 기술책임자 ‘사표’
지난달 25일 오픈AI 최고기술책임자(CTO) 미라 무라티가 퇴사했다. 2018년 합류한 무라티는 창립 멤버는 아니지만 챗GPT와 이미지 생성 모델 달리(Dall-E) 등 주요 제품 출시에 핵심적인 역할을 담당해 왔다.
무라티는 “스스로 탐험할 시간이 필요하다”고 밝혔다. 그러나 그가 순전히 개인적인 이유로 떠났다고 보는 사람은 거의 없다. 최근 ‘연쇄 사표’ 행렬의 연장선상에 있기 때문이다. 올해에만 20여명의 핵심 인력들이 사직했다. 최고연구책임자(CRO) 밥 맥그루와 연구 부문 부사장 배럿 조프도 같은 날 퇴사했다. 공동창업자 안드레아 카르파티와 존 슐먼, 일리야 수츠케버 또한 회사를 떠났다. 이들은 2015년 회사를 처음 일으킨 11인 창립 멤버의 일원이다. 현재 남아있는 창업자는 샘 올트먼 CEO와 보이치에흐 자렘바 2명뿐이다.
무엇보다도 오픈AI는 가장 중요한 순간을 앞두고 있었다. 무라티가 떠나고 1주일 뒤 이 회사는 소프트뱅크·엔비디아·마이크로소프트 등으로부터 66억달러(약 8조7000억원)의 자금을 조달하는 데 성공했다. 이때 평가받은 기업가치는 1570억달러(약 208조1000억원). 골드만삭스·우버와 비슷한 기업가치다.
이번 투자에는 중요한 조건이 달려 있다. ‘2년 내 완전한 영리 기업으로의 전환’. 수익 배분을 가로막는 각종 비영리적 지배구조와 장치를 걷어내라는 뜻이다. 실패하면 투자자들은 돈을 돌려달라고 요구할 수 있다.
오픈AI는 “재무 성과에 구애받지 않고 인류에게 가장 큰 혜택을 줄 수 있는 방식으로 디지털 지능을 발전시키자”며 비영리 조직으로 출발했다. 2019년 마이크로소프트 투자를 유치하기 위해 영리 자회사를 두긴 했으나, 비영리 모회사의 이사진이 통제권을 갖는 구조는 그대로였다. 올트먼이 설익은 AI 서비스를 상업적으로 이용하려 한다고 간주한 이사진이 그를 몰아내려 했지만 직원들과 투자자들의 반발로 무산된 지난해 연말의 ‘쿠데타 사태’도 이런 독특한 구조에서 비롯됐다.
무라티는 당시 올트먼 편에 서서 그의 복귀를 지원했다. 그러나 이후 1년여간 임직원들의 줄퇴사를 방치하고 투자 유치 등 대외 활동에만 몰두했던 올트먼 리더십에 대한 불만이 결국 퇴사로 이어진 것 아니냐는 추측이 나온다.
물론 회사 덩치가 커지면서 비즈니스 측면의 결정이 불가피하다는 시각도 있다. 대규모언어모델(LLM)의 ‘스케일 업(확장)’을 위해서는 막대한 투자금과 인력이 필요하다. 오픈AI 직원 숫자는 현재 1700명으로 1년 전의 770명 대비 2배 이상 늘었다. 올해 매출은 37억달러로 예상되지만 손실은 50억달러로 더 크다.
‘생물학 무기’ 만들어낼 위험성···“의도적 속임수 쓸 수 있다”
하지만 오픈AI 내부에서는 “AI 기술을 신중하게 점검하기보다는 점점 빠른 출시와 수익화에만 몰두한다”는 불만이 나오고 있다. 영리 기업 전환 이후 AI 위험성을 관리할 거버넌스에 대해서도 뾰족한 해법은 찾지 못하고 있는 상태다.
월스트리트저널에 따르면 지난 5월 음성 AI 서비스 ‘GPT-4o’ 출시를 앞두고 안전 관련 테스트를 진행할 시간은 불과 9일밖에 주어지지 않았다. 불완전한 검증 탓인지, 해당 모델이 ‘텍스트 설득력’ 측면에서 ‘중간’ 이상의 위험도를 보인다는 사실도 출시 이후에야 밝혀졌다. GPT-4o가 작성한 정치 관련 글 12개 중 3개가 인간이 작성한 콘텐츠보다 높은 설득력을 보인 것이다. 다음달 미국 대선을 앞두고 이 모델이 실수로 잘못된 정보를 퍼뜨리거나 악의적으로 남용될 수 있다는 우려가 나왔다.
AI 연구자들이 가진 근원적인 공포는 “언제든 인간의 의도를 벗어날 수 있다”는 데 있다. 따라서 연구자들은 AI 시스템을 윤리적 원칙에 맞게 조정하는 ‘정렬(얼라인먼트·Alignment)’이 안전한 AI 기술의 핵심이라고 본다. 그러나 오픈AI는 안전·윤리를 관장하는 ‘슈퍼얼라인먼트 팀’을 지난 5월 해체했으며, 이 팀의 핵심 구성원이었던 얀 라이케, 존 슐먼 등은 ‘더 안전한 AI’를 표방하는 경쟁사 앤트로픽으로 옮겨갔다. 라이케는 떠나면서 “지난 몇 년 동안 안전 문화와 프로세스는 반짝이는 제품들에 밀려났다”라고 토로했다.
지난달 출시된 ‘o1’도 비슷한 걱정거리를 안고 있다. 학습된 데이터를 기반으로 즉각적인 대답을 내놓는 기존 GPT 모델과 달리, o1은 답변하기 전 충분히 생각하는 추론 형식을 도입한 최초의 서비스다. 오픈AI는 검증 결과 o1이 “생물학적 위협을 재생산하려는 전문가들을 돕는 능력치” 면에서 중간 이상의 위험도를 기록했다고 밝혔다. 생물학 무기를 만드는 데 이용될 수 있다는 것이다. 세계적인 AI 연구 권위자인 캐나다 몬트리올대 요슈아 벤지오 교수도 o1을 두고 “사용자 모르게 의도적으로 속임수를 쓸 가능성이 있다”고 지적했다.
오픈AI는 내부 ‘안전·보안위원회’를 독립적인 기구로 운영하며 모니터링을 강화하겠다고 밝혔다. 그러나 오픈AI의 눈부신 성공만큼이나 AI 기술의 위험성 또한 화두로 떠오른 이 시점에 올트먼이 지난달 블로그에 남긴 글귀는 예사로 들리지 않는다. “앞으로 수십년 안에 우리는 할아버지, 할머니 세대에 마법처럼 보였던 일을 할 수 있을 것이다. 수천일 안에 인간을 능가하는 ‘초지능’이 등장할 수도 있다. 더 오래 걸릴 수도 있지만, 나는 우리가 거기에 도달할 것이라고 확신한다.”