올해 노벨물리학상을 수상한 인공지능(AI) 전문가 제프리 힌튼 캐나다 토론토대 교수는 AI의 위험성을 핵무기의 원료가 되는 ‘핵분열 물질’에 빗대며, “정부가 AI와 관련한 윤리적 법규를 도입하고 안전에 대한 연구에 치중하라고 기업에 강하게 요구해야 한다”고 말했다.
힌튼 교수는 30일 서울 광장동 그랜드워커힐서울에서 교육부·한국경제신문·한국직업능력연구원 주최로 열린 ‘글로벌인재포럼 2024’ 기조강연에서 이같이 말했다.
그는 먼저 AI가 만든 가짜 콘텐츠의 범람을 우려했다. 11월 대선을 앞둔 미국에서는 후보자의 발언·평판 등을 왜곡하거나 유명인들의 지지 선언을 꾸며낸 딥페이크 영상이 쏟아지고 있다.
힌튼 교수는 “QR 코드를 사용해 콘텐츠의 진위를 확인할 수 있을 것”이라며 “선거 캠페인 영상의 시작 부분에 QR 코드를 삽입하고, 이 코드를 통해 해당 영상의 출처로 이동하게 하는 것”이라고 말했다. 하지만 그는 “이 방법은 어려울 것”이라며 “어떤 정치 집단은 사실이 아님을 알면서도 거짓 정보를 퍼뜨리는 데 열중하고 있기 때문”이라고 꼬집었다.
힌튼 교수는 “우라늄이나 플루토늄을 정제하는 데는 많은 작업이 필요하며, 이는 핵무기의 확산을 제한하는 요인”이라면서 “AI의 경우 ‘가중치’가 핵무기의 원료인 핵분열 물질과 같은 역할을 한다”고 말했다.
AI 모델의 가중치는 입력값의 중요도를 조절하는 매개변수다. 모델에 따라 수억~수십억개의 가중치를 갖는다. 오차 없는 최적의 가중치를 찾아내는 게 인공신경망의 역할이다. 힌튼 교수는 “대형 AI 모델을 개발하려면 1억달러 이상이 필요하다”며 “하지만 가중치가 공개되면 단 몇백만달러로 모델을 미세 조정해 사이버 공격에 활용할 수 있게 된다. 악의적인 행위자들이 모델의 능력을 악용할 수 있다”고 우려했다.
힌튼 교수는 영국 출신 컴퓨터 과학자이자 인지심리학자다. 컴퓨터가 인간의 두뇌처럼 작동하는 인공신경망 개념을 개척한 연구자다. 딥러닝 연구의 기초를 마련한 공로로 올해 노벨물리학상을 수상했다.
10여년간 구글 연구원으로 일한 힌튼 교수는 지난해 AI 위험성을 경고하면서 퇴사했다.
힌튼 교수는 이날 “구글은 한동안 윤리적으로 행동했다. AI를 대중에게 공개하는 것을 신중히 검토해 왔다”며 “그러나 오픈AI가 마이크로소프트와 손잡고 챗GPT를 발표하면서 구글도 경쟁에 참여할 수밖에 없었다”고 말했다. 그는 “대기업에 이러저러한 요구를 할 수 있는 주체는 정부밖에 없다”고 강조했다.