인공지능(AI)이 쓴 기사를 읽어본 적이 있는가? 아마 당신도 모르는 사이에 이미 읽었을 것이다. AP통신은 10년 전부터 기업 실적 보고서 작성에 AI를 도입했고, 스포츠 경기 결과나 금융 정보 같은 단순 기사는 로봇 기자가 쓰는 경우가 흔해졌다.
생성형 AI의 등장으로 우리는 이제 뉴스의 생산과 소비 방식이 근본적으로 뒤바뀌는 변곡점에 서 있다. 하지만 기술이 아무리 발전해도 채워지지 않는 갈증이 있다. “과연 이것을 믿을 수 있는가?”라는 질문이다. AI 시대, 우리가 정의해야 할 ‘뉴스’란 무엇인지 다시금 묻게 된다.
AI는 지치지 않는 기자다. 방대한 데이터를 분석하고 번역하며, 단순 반복 업무를 처리하는 속도는 인간이 따라갈 수 없다. 기자가 단순 노동에서 벗어나 깊이 있는 탐사 보도에 집중할 수 있으리라는 기대도 있었다. 하지만 현실은 다르다. AI가 효율을 높여줄 수는 있어도, 사안의 맥락을 파악하고 인간의 시선으로 의미를 전달하는 손길까지 대신하지는 못한다. 독자들은 복잡한 정치·사회 문제에서 여전히 인간의 판단이 담긴 기사를 신뢰한다. 뉴스는 데이터의 나열이 아니라 사회의 맥락을 짚어주는 이야기이기 때문이다.
기계는 감정이 없으니 공정하리라는 생각은 착각이다. AI는 인간이 만든 데이터를 학습하며, 그 안에는 우리 사회의 편견이 고스란히 담겨 있다. 얼굴 인식 AI가 흑인 여성을 제대로 인식하지 못하거나, 채용 알고리즘이 여성 지원자를 차별한 사례가 이를 보여준다. 뉴스 알고리즘도 마찬가지다. AI가 취향에 맞는 기사만 골라주는 동안, 우리는 다른 의견을 접할 기회를 잃고 ‘필터 버블’이라는 고립된 방에 갇힌다. 진짜뉴스라면 알고리즘의 편안함을 넘어, 불편하더라도 알아야 할 진실을 보여줘야 한다.
더 큰 문제는 ‘가짜뉴스’다. 가짜뉴스라는 말은 이제 너무 흔해져서 그 의미조차 모호해졌다. 학계에서는 이를 단순히 거짓 정보가 아니라 풍자, 패러디, 조작, 선전 등 다양한 층위로 구분한다. 문제는 AI 기술이 이 ‘가짜’를 만드는 데 너무나 강력한 도구가 되었다는 점이다. 진짜와 구별하기 힘든 딥페이크 영상이나, 그럴듯한 문장으로 허위 사실을 만들어내는 AI의 ‘환각(hallucination)’ 현상은 저널리즘의 신뢰를 위협한다.
게다가 뉴스 조직들이 자체 AI를 개발하기보다 구글이나 오픈AI와 같은 거대 기술 기업의 도구에 의존하게 되면서, 뉴스의 통제권이 플랫폼 기업으로 넘어갈 수 있다는 우려도 커지고 있다. 뉴스가 기술 기업의 수익 창출 수단으로 전락하지 않으려면, 언론사는 기술에 휘둘리지 않고 저널리즘의 원칙을 지키는 ‘게이트키퍼’ 역할을 더욱 단단히 해야 한다.
결국 핵심은 신뢰다. AI 시대 더욱더 중요해진 뉴스의 조건은 ‘검증(Verification)’과 ‘책임(Accountability)’이다. AI가 아무리 그럴듯한 기사를 쏟아내더라도, 사실 여부를 확인하고 결과에 책임지는 것은 기자와 언론사의 몫이다. 기술은 도구일 뿐이다. 진실을 추구하고, 권력을 감시하며, 공익에 봉사한다는 저널리즘의 본질은 변하지 않는다. AI라는 강력한 도구를 쥐고도 이 원칙을 놓치지 않을 때, 비로소 우리는 그것을 ‘뉴스’라 부를 수 있을 것이다.
이관민 싱가포르 난양공대 석좌교수