AI에 대해 ‘무엇을 모르는지’조차 모르는데…‘속도 조절’ 필요할까

이종필 교수

(41) 인공지능 개발유예 논란

대형강입자충돌기 시험가동 때
마이크로블랙홀의 위험성 소동
처음으로 핵무기를 개발할 때도
‘지구 대기 태워버릴라’ 우려 나와

일러스트 | 김상민 기자 yellow@kyunghyang.com

일러스트 | 김상민 기자 yellow@kyunghyang.com

인류 역사상 가장 큰 과학실험 장비인 유럽원자핵연구소(CERN)의 대형강입자충돌기(LHC)가 2008년 처음 시험가동을 시작했을 때 적잖은 소동이 전 세계적으로 일었다. LHC는 양성자 빔을 높은 에너지로 정면충돌시켜서 어떤 일이 벌어지는지를 관찰하는 입자가속기이다. 이 과정에서 양성자 내부를 구성하는 쿼크나 접착자(gluon)들이 고에너지로 충돌하며 새로운 입자들을 만들어낸다. 과학자들이 오랜 세월 찾아 헤맸던 힉스(Higgs) 입자도 그 목록에 포함돼 있었고 2012년 마침내 그 입자를 발견했다.

한 가지 흥미로운 과학적 시나리오에 따르면 소립자들이 고에너지로 충돌하는 과정에서 마이크로블랙홀이 만들어질 수도 있다. 통상적인 블랙홀을 지구에서 인간이 인위적으로 만들기는 무척 어렵다. 그러나 지금 우리가 살고 있는 3차원의 공간 말고도 또 다른 차원이 존재한다면 LHC의 에너지로도 충분히 블랙홀을 만들 수 있다.

블랙홀은 주변의 모든 것을 삼키니까 혹시라도 LHC에서 마이크로블랙홀이 생성돼 LHC가 있는 제네바부터 차례차례 사라지는 건 아닐까? SF 영화 같은 이 시나리오는 실제로 과학자들이 진지하게 검토했던 내용들이다. LHC가 가동되기 얼마 전 미국에서는 LHC의 가동을 중지하라는 가처분소송이 제기되기도 했었다. 결과적으로 말해 LHC가 가동된 이후로 오랜 세월이 흘렀음에도 지구가 이렇게 멀쩡하니 마이크로블랙홀이 지구를 삼키지 않은 것은 분명하다.

과학자들은 LHC가 가동되기 전 제기된 위험요소들을 모두 고려해 실험의 안전성을 따져보았다. 마이크로블랙홀의 경우 설령 생성된다 하더라도 그 크기가 너무나 작고 수명 또한 대단히 짧아서(10 초 정도) 그 주변의 뭔가를 집어삼킬 여력이 없는 것으로 추정되었다. 간접적으로 따져보더라도, 우주에서는 인간이 만든 입자가속기보다 훨씬 더 높은 에너지를 가진 입자들이 날아다니며 수많은 마이크로블랙홀을 만들어냈을 수도 있다. 그러나 그 때문에 별이나 행성 등이 사라졌다는 정황은 없었다. 이런 이유로 과학자들은 LHC 실험이 지구에 큰 해를 입히지 않을 것으로 확신할 수 있었다.

인류가 처음으로 핵무기를 개발할 때에도 비슷한 고민이 있었다. 우라늄 원자핵에 중성자를 때려 핵이 쪼개질 수 있으며 그때 엄청나게 큰 에너지가 나온다는 것을 과학자들이 정확하게 알게 된 것은 1938년에 이르러서였다. 이를 이용하면 인류 역사상 유례없는 파괴력을 가진 무기도 만들 수 있게 된다. 이듬해 아인슈타인과 레오 실라르드는 루스벨트 미 대통령에게 편지를 보내 나치의 핵무기 개발 가능성을 경고하며 미국의 관심을 촉구했다. 그로부터 3년 뒤 미국에서는 사상 최초로 핵무기를 개발하기 위한 맨해튼 프로젝트가 시작됐다. 본격적인 핵무기 개발이 시작된 지 다시 3년이 지난 1945년, 사상 최초로 핵무기 폭발실험이 진행됐다. 그 날짜는 7월16일로, 히로시마에 핵무기가 실전으로 투하되기 꼭 3주 전이었다.

사상 최초의 핵실험을 앞두고 걱정과 우려가 전혀 없지는 않았다. 당대 최고의 물리학자였던 엔리코 페르미는 농담 삼아 그날의 핵실험에서 방출된 엄청난 에너지가 대기 속에서 핵융합을 촉발해 지구 대기를 홀라당 모두 태워 먹을 것인가 아닌가로 내기를 하고 있었다. 아마도 페르미는 역사적으로 엄청난 실험을 앞두고 사람들의 긴장을 풀기 위해 그랬겠지만, 핵폭발이 대기 중의 질소 원자들을 충돌시켜 산소와 탄소를 만들면서 엄청난 에너지를 방출할 가능성은 이미 맨해튼 프로젝트가 시작될 당시 제기되었다. 그 주인공은 융합형 폭탄, 즉 일명 ‘수소폭탄’ 개발의 주역인 에드워드 텔러였다. 적잖은 과학자들이 텔러가 제기한 가능성을 그리 높게 보지 않았지만 과학자들은 상대방 또는 스스로를 설득하기 위해 치밀한 분석과 계산을 할 수밖에 없다. 한 계산에 따르면 그 가능성이 약 100만분의 3 정도였다고 한다.

만약 그 확률이 100만분의 3이 아니라 100분의 3이었다면 어땠을까? 일본과의 전쟁을 빨리 끝내기 위해 3%의 위험을 무릅쓰고 핵실험을 강행할 것인가, 아니면 전 인류와 지구 전체의 파멸을 막기 위해 실험을 중단할 것인가? 그 확률이 10분의 3이었다면?

인간 지능 능가하는 기계 출현도
우리의 종 특성에 위협 가능성
너무나 빠른 AI의 발전 속도에
‘개발 중단’ 주장 나와 의견 분분

아주 똑같은 상황은 아니지만 최근 챗GPT의 열풍 속에서 6개월 동안 강력한 인공지능 시스템 개발을 잠정적으로 중단하자는 주장이 나와 의견이 분분하다. 미국의 비영리단체 ‘생명미래연구소’가 지난 3월22일 인공지능 기술의 발전 속도가 너무 빨라 오·남용과 부작용이 우려된다며 최소 6개월 인공지능 개발을 중단하고 안전 프로토콜을 마련하자고 공개서한 형식으로 제안했다. 여기 동조하고 나선 사람들이 만만치 않다. 테슬라의 일론 머스크, 애플 공동창업자 스티브 워즈니악, <사피엔스>의 저자 유발 하라리 등 관련분야 전문가 3000여명이 서명에 동참했다. 이들의 공개서한에는 통제할 수 없는 인공지능에 대한 두려움이 묻어 있다.

이에 맞서 현재 인공지능 부흥을 이끈 선구자인 얀 르쿤과 앤드루 응은 온라인 토론에서 이에 반대하는 입장을 밝혔다. 이들의 주장을 간략히 요약하자면 아직은 인공지능의 부작용을 걱정할 단계가 아니다. 미리 걱정을 당겨서 하다가 오히려 통제 가능한 인공지능 기술발전 또한 늦어질 수 있고 그 탓에 인공지능에 의한 이득을 놓칠 수 있다는 것이다.

물론 이들의 입장에는 인류 전체를 위한 대의명분 말고도 각자의 이해득실 또한 크게 반영되었을 것이다. 에릭 슈밋 전 구글 회장은 6개월 개발중단이 중국만 이롭게 할 뿐이라며 반대했고, 개발유예 서명에 동참했던 머스크는 최근 X.AI라는 인공지능 회사를 설립했다.

사실 6개월 개발유예에 반대했던 르쿤과 응 또한 인공지능에 대한 적절한 규제 자체를 반대하지는 않았다. 다만 지금은 시기상조라는 게 이들의 주장이다. 르쿤의 표현을 빌리자면 자동차가 발명되지도 않았는데 안전벨트 걱정부터 하는 격이라는 얘기이다. 지금의 인공지능 수준이 아직까지는 범용인공지능(AGI)과는 거리가 멀어서 지금부터 미리 걱정할 필요가 없다는 주장도 그럴듯하게 들린다.

그러나 오히려 그 때문에 지금부터 적절한 규제를 준비하는 것이 훗날의 비용을 크게 줄일 수도 있다. 또한 핵무기가 그랬듯이 안전벨트를 걱정할 수준까지 자동차의 완성도가 높아지면 이미 그 회사는 시장에서 무소불위의 독점적인 지위를 점유하고 있을지도 모른다. 그렇다면 ‘그 이후’의 규제는 후발주자들의 진입을 막으면서 기득권 업체의 독점만 강화하는 역할을 할 것이 분명하다. 지금의 핵보유국들이 핵확산금지조약(NPT) 체제와 유엔안전보장이사회 상임이사국의 지위를 누리며 핵무력을 거의 독점하고 있듯이 말이다.

게다가, 인공지능이 야기할지도 모를 위협은 자동차가 야기할 위협과는 차원이 다르다. 자동차를 포함해 지금까지의 모든 기계는 인간의 육체적 한계를 뛰어넘는 것이 인간에게 큰 도움이 되기 때문에 미덕이었다. 또한 교통사고가 아무리 크게 나더라도 그것을 인류 전체에 대한 위협으로 느끼는 사람은 없다.

그러나 인간보다 지능이 뛰어난 기계는 호모 사피엔스로서의 종 특성에 위협이 될 수 있다. 호모 사피엔스가 이 행성에서 지배적인 종이 될 수 있었던 것은 육체적인 능력이 뛰어나서가 아니라 두뇌가 뛰어났기 때문이다. 당장의 일은 아니겠지만 만약 인간과 비슷하거나 보다 뛰어난 지능의 기계가 출현한다면 인간의 지위는 유일자(The One)에서 여럿 중 하나(one of them)로 격하될 것이다. 이는 마치 우리와 비슷하거나 우리보다 뛰어난 문명을 이룩한 외계인을 마주하는 것과 비슷하다. 그런 외계인이 머잖은 미래에 지구를 방문할 계획이 예정돼 있다면 우리는 어떻게 해야 할까? 아무리 인간에게 우호적인 외계인이라 할지라도 우리는 어떤 형태로든 준비를 해야만 할 것이다.

AI에 잠재된 성능 혹은 오류는
우리에게 ‘알려지지 않은 미지’
미리 걱정을 당겨서 하지 말고
통제 가능한 AI 기술 발전시켜야
위협의 특정과 분석 가능할지도

우리와 비슷하거나 우리보다 뛰어난 지능의 출현에 두려움을 느끼는 이유는 그 존재가 인간의 통제를 벗어날 수 있기 때문이다. 지능이 없는 기계는 아무리 성능이 뛰어나도 인간의 통제를 벗어나기 어렵다. 몇몇 오작동이나 돌발사고는 대체로 일회적이며 결국 그 원인은 누구나 이해할 수 있는 수준으로 규명할 수 있다. 그러나 인공지능은 지금의 낮은 수준에서조차 왜 그렇게 놀라운 성능을 보이는지 인간이 제대로 이해하지 못한다. GPT 같은 대규모 언어모형의 경우 그 복잡성이 커졌을 때 이전에 보이지 않았던 새로운 창발적 능력을 보이기도 한다. 그와 함께 새로운 편향과 오류 또한 증가할 수 있다. 창발적 현상은 그보다 낮은 간단한 수준에서는 전혀 예측할 수 없는 것으로 수많은 다수가 모였을 때만 나타나는 현상이다. 개별적인 물분자 수준에서는 거대한 파도나 쓰나미라는 현상을 유추할 수 없는 것과 마찬가지이다.

2000년대 초 미국의 조지 부시 행정부에서 국방장관을 지낸 도널드 럼스펠트는 알려진 미지(known unknowns)뿐만 아니라 알려지지 않은 미지(unknown unknowns)를 언급한 적이 있었다. 우리가 무엇을 모르는지를 아는 것과 무엇을 모르는지조차 모르는 것에는 확실히 큰 차이가 있다. 지금의 인공지능이 왜 그렇게 훌륭한 성능을 보이는지를 잘 이해하지 못하는 것은 알려진 미지인 반면 앞으로의 인공지능이 어느 순간 얼마나 뛰어난 성능(또는 치명적인 오류)을 보일 것인지는 알려지지 않은 미지에 속한다.

인공지능의 미래에 막연한 두려움만 갖고 미래에 대한 공황상태에 빠지는 건 문제라는 르쿤의 주장에도 일리가 있다. 이를 극복하기 위해서는 가능한 수준에서라도 알려지지 않은 미지를 알려진 미지로 바꿀 수 있어야 한다. 그렇게 되면 입자가속기나 핵무기의 경우처럼 일어날지도 모를 위협을 특정해서 정량적으로 분석할 수 있고, 필요하다면 맞춤형 대책을 세울 수 있기 때문이다.

이종필 교수

[전문가의 세계 - 이종필의 과학자의 발상법] AI에 대해 ‘무엇을 모르는지’조차 모르는데…‘속도 조절’ 필요할까

1971년 부산에서 태어났다. 1990년 서울대 물리학과에 입학했으며 2001년 입자물리학으로 박사학위를 받았다. 이후 연세대·고등과학원 등에서 연구원으로, 고려대에서 연구교수로 재직했다. 2016년부터 건국대 상허교양대학에서 조교수로 재직 중이다. 저서로 <신의 입자를 찾아서> <대통령을 위한 과학 에세이> <물리학 클래식> <이종필 교수의 인터스텔라> <빛의 속도로 이해하는 상대성이론> 등이 있고, <최종이론의 꿈> <블랙홀 전쟁> <물리의 정석> <스티븐 호킹의 블랙홀> 등을 우리글로 옮겼다.



Today`s HOT
보랏빛 꽃향기~ 일본 등나무 축제 연방대법원 앞 트럼프 비난 시위 러시아 전승기념일 리허설 행진 친팔레스타인 시위 하는 에모리대 학생들
중국 선저우 18호 우주비행사 뉴올리언스 재즈 페스티벌 개막
아르메니아 대학살 109주년 파리 뇌 연구소 앞 동물실험 반대 시위
최정, 통산 468호 홈런 신기록! 케냐 나이로비 폭우로 홍수 기마경찰과 대치한 택사스대 학생들 앤잭데이 행진하는 호주 노병들
경향신문 회원을 위한 서비스입니다

경향신문 회원이 되시면 다양하고 풍부한 콘텐츠를 즐기실 수 있습니다.

  • 퀴즈
    풀기
  • 뉴스플리
  • 기사
    응원하기
  • 인스피아
    전문읽기
  • 회원
    혜택