“핵 공격·가짜뉴스 등 위험 대비”···AI 빅테크 기업 자율규제 잰걸음

김은성 기자
로이터 연합뉴스.

로이터 연합뉴스.

인공지능(AI) 개발을 주도하는 빅테크 기업들이 AI가 초래할 위험성에 대비하기 위해 조직 신설 등 자율적인 내부통제 방안 마련에 나섰다. 각국 정부가 ‘AI 가드레일(안전장치)’ 제정에 돌입한 가운데 본격적인 규제 도입 전 업계 주도로 선제적 해법을 제시하기 위한 조치다.

29일 워싱턴포스트(WP)와 BBC 등에 따르면 챗GPT 개발사 오픈AI는 지난 27일(현지시간) AI의 위험을 줄이기 위한 자체 대비팀을 신설했다. 해당 조직은 AI가 일으킬 수 있는 치명적인 위험을 추적·평가·예측해 사전에 막는 것을 목표로 한다. 미래에 사람의 통제를 벗어난 일반인공지능(AGI)의 위협에 대비해 사이버 보안을 강화하고 화학·생물학(핵무기) 공격 등에 맞설 수 있는 기술을 개발할 예정이다.

오픈AI는 “AI가 인류에게 혜택을 줄 수 있는 잠재력이 있다고 믿지만 동시에 심각한 위험을 초래할 수 있다”며 “새로운 AI 시스템의 위험한 기능을 예측하고 사람들을 보호할 수 있는 뼈대를 구축해야 한다”고 밝혔다.

다른 기업들도 유사한 안전판 마련에 나섰다. 구글, 마이크로소프트, 오픈AI, 앤트로픽은 지난 26일 1000만달러 규모의 ‘AI 세이프티 펀드’를 출범했다. AI 안전 분야를 탐구하는 연구자와 스타트업을 지원하는 펀드로 4개 기업과 에릭 슈미트 전 구글 최고경영자(CEO) 등 개인 기부자들이 참여했다.

그뿐만 아니라 이들 빅테크 기업은 지난 7월 자신들의 이해관계를 대변하기 위해 ‘프론티어 모델 포럼’을 출범하고, 정책입안자 및 학자들과 협업해 AI 모델 개발과 관련한 정보를 공유하겠다고 밝혔다.

이런 움직임은 각국 정부의 규제에 대응하기 위한 차원이다. 미국 백악관은 오는 30일 ‘안전하고 신뢰할 수 있는 AI’ 행사를 열고 행정명령을 발표한다. 행정명령에는 미국 정보·안보 당국이 AI 기술 이용 시 관련 기술에 대한 검증을 받도록 의무화하는 규제 방안이 담길 것으로 알려졌다.

정부 차원의 AI 안전 연구소 설립을 검토 중인 영국은 다음 달 1일 G7(미국·일본·독일·영국·프랑스·캐나다·이탈리아) 국가를 포함해 세계 정상들과 함께 ‘AI 안전 정상회의’를 연다. 주요국 정상급 인사, 빅테크 기업, 전문가 등이 모여 AI의 위험성을 공유하고 대책을 논의하는 국가 회의체다. 한국에서는 이종호 과학기술정보통신부 장관과 삼성전자(전경훈 DX 부문 최고기술책임자), 네이버(하정우 AI 센터장)가 참여한다.

일각에서는 업계의 자율적인 방안 마련을 두고 한계가 있을 것이라는 지적도 나온다. BBC는 “AI 기업들이 협력하는 것처럼 보이지만 실제로 어떤 데이터를 이용하고 어떻게 작동하는지 등은 모두 비밀로 하고 있다”며 “(기업들이) 얼마나 투명하게 밝힐 수 있을지는 미지수”라고 전했다.

국내에서는 과기정통부가 기업들과 함께 AI 서비스 분야별로 가이드라인을 만들고, 이를 확대하기 위한 자율적인 검·인증 제도를 다음 달부터 본격적으로 추진한다. AI의 부작용을 줄이는 한편 AI 생성에 사용된 원본 콘텐츠의 저작권 보호를 위해 결과물에 표식(워터마크)을 도입하는 방안도 법제화한다.


Today`s HOT
올림픽 성화 도착에 환호하는 군중들 러시아 전승절 열병식 이스라엘공관 앞 친팔시위 축하하는 북마케도니아 우파 야당 지지자들
파리 올림픽 보라색 트랙 첫 선! 영양실조에 걸리는 아이티 아이들
폭격 맞은 라파 골란고원에서 훈련하는 이스라엘 예비군들
바다사자가 점령한 샌프란만 브라질 홍수, 대피하는 주민들 토네이도로 파손된 페덱스 시설 디엔비엔푸 전투 70주년 기념식
경향신문 회원을 위한 서비스입니다

경향신문 회원이 되시면 다양하고 풍부한 콘텐츠를 즐기실 수 있습니다.

  • 퀴즈
    풀기
  • 뉴스플리
  • 기사
    응원하기
  • 인스피아
    전문읽기
  • 회원
    혜택