창간 80주년 경향신문

“How long will we just leave ‘undressing AI’ alone?”···Global statement of ‘concern’ over the generation of sexual exploitation images



완독

경향신문

공유하기

  • 카카오톡

  • 페이스북

  • X

  • 이메일

보기 설정

글자 크기

  • 보통

  • 크게

  • 아주 크게

컬러 모드

  • 라이트

  • 다크

  • 베이지

  • 그린

컬러 모드

  • 라이트

  • 다크

  • 베이지

  • 그린

본문 요약

인공지능 기술로 자동 요약된 내용입니다. 전체 내용을 이해하기 위해 본문과 함께 읽는 것을 추천합니다.
(제공 = 경향신문&NAVER MEDIA API)

내 뉴스플리에 저장

“How long will we just leave ‘undressing AI’ alone?”···Global statement of ‘concern’ over the generation of sexual exploitation images

입력 2026.02.18 10:47

  • By Kim Song-yi

This article was translated by an AI tool. Feedback Here.

“Technologies that generate images of abuse must be completely banned”

International organizations issue a statement···In Korea, the Broadcasting Media Communications Deliberation Commission participates

“Build in safety from the design stage···Protective measures must be introduced”

Upon finding sexual exploitation outputs, “Report·Condemn·Shut down”

Grok and images. Getty Images-AFP Yonhap News 사진 크게보기

Grok and images. Getty Images-AFP Yonhap News

On the 10th, news of the release of the video artificial intelligence (AI) Sidance 2.0, touted as having “completed a two-minute movie for 70,000 won,” drew attention. Interest centered on how precisely image and video AI can produce results that match user intent. That same day, however, voices also emerged worrying about another use of image AI: a statement from international organizations around the world that AI must not be misused to create sexual exploitation material.

International organizations that have worked to counter the spread of child sexual exploitation materialthe International Association of Internet Hotlines (INHOPE), Safe Online, the Internet Watch Foundation (IWF), among othersissued a statement calling for a complete ban on technologies that enable AI to generate images of abuse and nudity (non-consensual body synthesis). In Korea, the Broadcasting Media Communications Deliberation Commission (Bangmi-Simwi) joined the statement.

The groups said, “Non-consensual body synthesis (nudify) tools generate nude images of others without consent, and the creation of illegal images of children is also becoming more frequent,” adding, “Companies, developers, and individuals who create or distribute these must be held accountable and face legal and criminal action.”

There are warnings that image AI has become “a new pathway of exploitation,” beyond a mere tool. They pointed out, “AI tools mean offenders do not even need to obtain photos of victims,” and “sexual exploitation images can be manufactured artificially, chillingly efficiently, and at scale.” They also noted, “Perpetrators, including some adolescents, have monetized AI-generated sexual exploitation images, creating a new ‘exploitation economy.’”

In a world where anyone can easily use image AI, what should be done to avoid exposing women and children to risk? The groups argue that “governments and legislators in each country should, within two years at the latest, ban non-consensual body synthesis tools and regulate them so that no one can access them.”

As concrete measures, they said governments should impose criminal liability on those who generate or distribute non-consensual body synthesis images, as well as on companies and individuals who profit from them. They also proposed that governments impose obligations on app stores and similar platforms to block non-consensual body synthesis AI technologies.

The groups emphasize that such AI-generated sexual images must be stopped “right now,” before they spread further. Prevention before exploitation occurs is crucial. They urged technology companies and individuals to “build image AI to be safe from the design stage and adopt effective safeguards,” and to “recognize clearly that non-consensual body synthesis tools inflict irreparable harm and carry the risk of expanding gender-based violence.”

What can be done when image AIs or outputs that create sexual exploitation material are found? The groups say, “Report them, condemn them, and shut down the spaces where they operate.” Last month, when it became known that sexual exploitation material was spreading via Grok, the Broadcasting Media Communications Commission demanded that X, which operates Grok, submit a user-protection plan. However, there are concerns that protection measures leave many gaps and cannot keep pace with the speed at which image AI proliferates and funnels users into exploitative structures.

Minister Won Min-kyung of the Ministry of Gender Equality and Family said, in response to the statement urging a ban on non-consensual body synthesis, “We strongly welcome the international community’s declaration against digital sex crimes,” adding, “We will actively strengthen cooperation with relevant ministries and the international community to respond to the emerging forms of digital sex crimes.”

  • AD
  • AD
  • AD
뉴스레터 구독
닫기

전체 동의는 선택 항목에 대한 동의를 포함하고 있으며, 선택 항목에 대해 동의를 거부해도 서비스 이용이 가능합니다.

보기

개인정보 이용 목적- 뉴스레터 발송 및 CS처리, 공지 안내 등

개인정보 수집 항목- 이메일 주소, 닉네임

개인정보 보유 및 이용기간- 원칙적으로 개인정보 수집 및 이용목적이 달성된 후에 해당정보를 지체없이 파기합니다. 단, 관계법령의 규정에 의하여 보존할 필요가 있는 경우 일정기간 동안 개인정보를 보관할 수 있습니다.
그 밖의 사항은 경향신문 개인정보취급방침을 준수합니다.

보기

경향신문의 새 서비스 소개, 프로모션 이벤트 등을 놓치지 않으시려면 '광고 동의'를 눌러 주세요.

여러분의 관심으로 뉴스레터가 성장하면 뉴욕타임스, 월스트리트저널 등의 매체처럼 좋은 광고가 삽입될 수 있는데요. 이를 위한 '사전 동의'를 받는 것입니다. 많은 응원 부탁드립니다. (광고만 메일로 나가는 일은 '결코' 없습니다.)

뉴스레터 구독
닫기

닫기
닫기

뉴스레터 구독이 완료되었습니다.

개인정보 수집 및 이용
닫기

개인정보 이용 목적- 뉴스레터 발송 및 CS처리, 공지 안내 등

개인정보 수집 항목- 이메일 주소, 닉네임

개인정보 보유 및 이용기간- 원칙적으로 개인정보 수집 및 이용목적이 달성된 후에 해당정보를 지체없이 파기합니다. 단, 관계법령의 규정에 의하여 보존할 필요가 있는 경우 일정기간 동안 개인정보를 보관할 수 있습니다.
그 밖의 사항은 경향신문 개인정보취급방침을 준수합니다.

닫기
광고성 정보 수신 동의
닫기

경향신문의 새 서비스 소개, 프로모션 이벤트 등을 놓치지 않으시려면 '광고 동의'를 눌러 주세요.

여러분의 관심으로 뉴스레터가 성장하면 뉴욕타임스, 월스트리트저널 등의 매체처럼 좋은 광고가 삽입될 수 있는데요. 이를 위한 '사전 동의'를 받는 것입니다. 많은 응원 부탁드립니다. (광고만 메일로 나가는 일은 '결코' 없습니다.)

닫기