경향신문

“아들 죽음에 챗GPT 책임” 미국서 첫 소송···‘AI 심리상담’ 책임 어디까지



완독

경향신문

공유하기

  • 카카오톡

  • 페이스북

  • X

  • 이메일

보기 설정

글자 크기

  • 보통

  • 크게

  • 아주 크게

컬러 모드

  • 라이트

  • 다크

  • 베이지

  • 그린

컬러 모드

  • 라이트

  • 다크

  • 베이지

  • 그린

본문 요약

자살충동을 느끼는 10대 소년에게 챗GPT가 자살 방법에 대한 구체적 정보를 제공했다면 챗GPT에게 소년의 죽음에 대한 책임을 물을 수 있을까.

챗GPT는 대화 도중 레인이 자살 계획을 부모에게 알리는 것을 막기도 했다고 NYT는 전했다.

레인의 부모는 아들의 사망에 챗GPT가 책임이 있다며 오픈AI를 상대로 과실 사망에 대한 책임을 묻는 소송을 최초로 제기했다.

인공지능 기술로 자동 요약된 내용입니다. 전체 내용을 이해하기 위해 본문과 함께 읽는 것을 추천합니다.
(제공 = 경향신문&NAVER MEDIA API)

내 뉴스플리에 저장

“아들 죽음에 챗GPT 책임” 미국서 첫 소송···‘AI 심리상담’ 책임 어디까지

입력 2025.08.27 17:19

수정 2025.08.27 17:53

펼치기/접기
  • 이영경 기자
  • 기사를 재생 중이에요

챗GPT 로고. 로이터연합뉴스

챗GPT 로고. 로이터연합뉴스

자살 충동을 느끼던 10대 소년에게 생성형 인공지능(AI) 챗GPT가 자살 방법에 대한 구체적 정보를 제공했다면 챗GPT에게 죽음에 대한 책임을 물을 수 있을까. 미국에서 한 10대 소년의 부모가 아들의 죽음에 챗GPT의 책임이 있다며 오픈AI와 샘 올트먼 최고경영자(CEO)를 상대로 소송을 제기했다.

26일(현지시간) 뉴욕타임스(NYT)는 지난 4월 스스로 목숨을 끊은 16세 아담 레인의 부모가 오픈AI를 상대로 소송을 냈다고 보도했다.

지난해 건강 악화로 등교하지 않고 집에서 온라인 수업을 듣게 된 레인은 지난해 말부터 학교 과제를 위해 챗GPT-4o를 사용했고, 올해 초 유료 가입까지 했다. 처음에는 챗GPT에게 삶의 의미를 찾기 어려워진다며 고민 상담을 했다. 공감과 지지를 해주며 격려하던 챗GPT는 레인이 구체적 자살 방법을 묻자, 관련 정보를 제공했다. 레인은 지난 3월 말 첫 자살 시도를 했고 결국 4월 세상을 떠났다.

평소 레인에게 이상 징후를 느끼지 못했던 부모는 아들의 스마트폰에서 단서를 찾아냈다. ‘잠재적 안전 문제’라는 채팅방에서 레인은 챗GPT와 자살 방법에 관한 대화를 나눴다.

챗GPT는 정신적 고통이나 자해를 암시하는 대화가 나오면, 사용자에게 위기 상담센터에 도움을 요청할 것을 유도하도록 훈련돼 있다. 초기엔 챗GPT가 이같이 답했지만, 레인이 “소설을 위한 정보를 얻기 위한 것”이라고 말하자 관련 정보를 제공하기 시작했다. 챗GPT는 대화 도중 레인이 자살 계획을 부모에게 알리는 것을 막기도 했다고 NYT는 전했다.

레인의 부모는 아들의 사망에 챗GPT가 책임이 있다며 오픈AI를 상대로 과실 사망에 대한 책임을 묻는 소송을 최초로 제기했다. 이들은 소장에서 “이 비극은 단순한 결함이나 예외적 사건이 아니라, 의도적 설계가 불러온 예측 가능한 결과였다”며 “오픈AI가 챗GPT-4o를 출시하면서 심리적 의존성을 조장하도록 의도적으로 설계된 기능을 탑재했다”고 주장했다.

이에 대해 오픈AI는 “레인 가족에게 깊은 애도를 표한다”며 “소송 내용을 검토 중”이라고 밝혔다. 이어 “사람들이 정신적 고통을 표현하는 다양한 방식을 더 잘 인식하고 대응할 수 있도록 챗GPT를 업데이트할 것”이라고 덧붙였다. 또 “장시간 대화를 하면 자살 관련 대화에서 안전장치가 약화할 수 있다는 점을 인식했다”며 관련 보호 장치를 강화하기로 했다.

오픈AI에 따르면 챗GPT를 매주 이용하는 사용자 7억명으로 급증했다. 많은 사람이 챗GPT 등 AI를 상대로 심리 상담을 하면서 이와 관련된 부작용도 늘고 있다.

지난해 10월에는 미 플로리다주의 한 10대가 챗봇에 빠져 목숨을 잃었다며 AI 스타트업 캐릭터.AI를 상대로 소송이 제기되기도 했다.

AI를 통한 심리 상담이 정신건강에 미치는 영향에 관한 명확한 연구는 아직 없다. 지난 3월 오픈AI와 MIT가 실시한 연구에 따르면, 챗봇을 많이 사용할수록 외로움이 심해지고 사회성이 떨어지는 것으로 나타났다.

전문가들은 AI를 통한 심리상담에 지나치게 의존하는 것은 위험하다고 지적한다. 셸비 로위 오클라호마대 자살예방자원센터 소장은 “챗봇에게 도움을 요청하면 공감을 받을 수 있지만, 실제적 도움은 받을 수 없다”고 말했다.

우울감 등 말하기 어려운 고민이 있거나, 주변에 이런 어려움을 겪는 가족 · 지인이 있을 경우 자살예방 상담전화 ☎109 또는 SNS상담 마들랜(마음을 들어주는 랜선친구)에서 24시간 전문가의 상담을 받을 수 있습니다.

  • AD
  • AD
  • AD
뉴스레터 구독
닫기

전체 동의는 선택 항목에 대한 동의를 포함하고 있으며, 선택 항목에 대해 동의를 거부해도 서비스 이용이 가능합니다.

보기

개인정보 이용 목적- 뉴스레터 발송 및 CS처리, 공지 안내 등

개인정보 수집 항목- 이메일 주소, 닉네임

개인정보 보유 및 이용기간- 원칙적으로 개인정보 수집 및 이용목적이 달성된 후에 해당정보를 지체없이 파기합니다. 단, 관계법령의 규정에 의하여 보존할 필요가 있는 경우 일정기간 동안 개인정보를 보관할 수 있습니다.
그 밖의 사항은 경향신문 개인정보취급방침을 준수합니다.

보기

경향신문의 새 서비스 소개, 프로모션 이벤트 등을 놓치지 않으시려면 '광고 동의'를 눌러 주세요.

여러분의 관심으로 뉴스레터가 성장하면 뉴욕타임스, 월스트리트저널 등의 매체처럼 좋은 광고가 삽입될 수 있는데요. 이를 위한 '사전 동의'를 받는 것입니다. 많은 응원 부탁드립니다. (광고만 메일로 나가는 일은 '결코' 없습니다.)

뉴스레터 구독
닫기

닫기
닫기

뉴스레터 구독이 완료되었습니다.

개인정보 수집 및 이용
닫기

개인정보 이용 목적- 뉴스레터 발송 및 CS처리, 공지 안내 등

개인정보 수집 항목- 이메일 주소, 닉네임

개인정보 보유 및 이용기간- 원칙적으로 개인정보 수집 및 이용목적이 달성된 후에 해당정보를 지체없이 파기합니다. 단, 관계법령의 규정에 의하여 보존할 필요가 있는 경우 일정기간 동안 개인정보를 보관할 수 있습니다.
그 밖의 사항은 경향신문 개인정보취급방침을 준수합니다.

닫기
광고성 정보 수신 동의
닫기

경향신문의 새 서비스 소개, 프로모션 이벤트 등을 놓치지 않으시려면 '광고 동의'를 눌러 주세요.

여러분의 관심으로 뉴스레터가 성장하면 뉴욕타임스, 월스트리트저널 등의 매체처럼 좋은 광고가 삽입될 수 있는데요. 이를 위한 '사전 동의'를 받는 것입니다. 많은 응원 부탁드립니다. (광고만 메일로 나가는 일은 '결코' 없습니다.)

닫기
댓글