창간 80주년 경향신문

AI-driven sexual exploitation content is proliferating··· developers still show little awareness of the problem



완독

경향신문

공유하기

  • 카카오톡

  • 페이스북

  • X

  • 이메일

보기 설정

글자 크기

  • 보통

  • 크게

  • 아주 크게

컬러 모드

  • 라이트

  • 다크

  • 베이지

  • 그린

컬러 모드

  • 라이트

  • 다크

  • 베이지

  • 그린

본문 요약

인공지능 기술로 자동 요약된 내용입니다. 전체 내용을 이해하기 위해 본문과 함께 읽는 것을 추천합니다.
(제공 = 경향신문&NAVER MEDIA API)

내 뉴스플리에 저장

AI-driven sexual exploitation content is proliferating··· developers still show little awareness of the problem

입력 2026.03.04 16:32

  • By Songyi Kim

This article was translated by an AI tool. Feedback Here.

Images generated by Grok are displayed on a digital device screen. Getty Images

Images generated by Grok are displayed on a digital device screen. Getty Images

As generative artificial intelligence (AI) spreads, new forms of gender-based violence such as deepfake sex crimes are increasing, yet a study finds that among AI developers, awareness of these risks is lacking. There are calls to build Korean-language datasets that reflect misogyny and gender conflict in Korean society and use them in AI development.

According to the Korea Women's Policy Institute's report released on the 4th, titled 'A Study on the Need for AI Benchmark Datasets to Prevent Digital Gender-Based Violence', the researchers analyzed that awareness among AI developers that issues of gender violence or discrimination can arise in the AI development process is quite thin. The team asked eight experts in large IT corporations, general conglomerates, and startups who are in charge of large language model (LLM) development or AI-related practical work about where ethics and safety policies stand within AI development culture.

An AI practitioner in their 30s who has worked at a major corporation for more than five years said, "It didn't naturally occur to me how (AI) could be used maliciously, so I didn't really recognize the problem," adding, "I can't think at all of what kinds of issues there could be regarding sexual harassment or sexual abuse via AI."

Even in public projects, establishing ethics and safety guidelines for AI platforms was found to be pushed down the priority list. A software developer in their 50s at a small or medium-sized enterprise working on a government agency's AI platform project said, "We're digging through materials from the National Information Society Agency (NIA) and the like, but (colleagues) aren't that interested," adding, "We still haven't been able to pay attention to (ethics guidelines)." Another technology planning manager at a large company said, "People developing at a very low level (of the stack) really dislike (safety issues)," and, "From a truly macro perspective, it's not the time to worry about data; what matters is improving completeness."

Developers agreed that the public sector, rather than the private sector, should establish safety systems to prevent gender-based violence. An employee in charge of AI-related work at a major company said, "Strengthening safety policies that explicitly address gender-based violence seems difficult for companies. It would be too much to form a large team," adding, "There's a lot of safety-related material abroad, so if what's being addressed now comes out as Korean-language (data)sets, many would use them."

Comparing the status of AI benchmark dataset construction at home and abroad, the researchers pointed out a lack of dedicated datasets to prevent gender-based violence in Korean society. A dataset (data set) is a collection of data used by artificial intelligence for learning or for evaluating performance. A benchmark dataset is a reference dataset created to compare the performance of various AI models. Only when benchmark datasets incorporate a perspective that defines and seeks to prevent gender-based violence can the social safety of AI models be secured. However, the researchers explained that current benchmark research is conducted mainly in the English-speaking world, leaving Korean-language datasets at the level of identifying general social biases such as region and age.

The researchers stressed, "There is hardly any discussion on datasets that reflect the unique patterns of gender conflict in Korean society, online community discourse, and linguistic nuances," adding, "The public sector needs to lead the creation of safe and ethical datasets and provide policy support so that they are mandatorily used in AI development and verification through an industry-academia-research-government cooperation system."

  • AD
  • AD
  • AD
뉴스레터 구독
닫기

전체 동의는 선택 항목에 대한 동의를 포함하고 있으며, 선택 항목에 대해 동의를 거부해도 서비스 이용이 가능합니다.

보기

개인정보 이용 목적- 뉴스레터 발송 및 CS처리, 공지 안내 등

개인정보 수집 항목- 이메일 주소, 닉네임

개인정보 보유 및 이용기간- 원칙적으로 개인정보 수집 및 이용목적이 달성된 후에 해당정보를 지체없이 파기합니다. 단, 관계법령의 규정에 의하여 보존할 필요가 있는 경우 일정기간 동안 개인정보를 보관할 수 있습니다.
그 밖의 사항은 경향신문 개인정보취급방침을 준수합니다.

보기

경향신문의 새 서비스 소개, 프로모션 이벤트 등을 놓치지 않으시려면 '광고 동의'를 눌러 주세요.

여러분의 관심으로 뉴스레터가 성장하면 뉴욕타임스, 월스트리트저널 등의 매체처럼 좋은 광고가 삽입될 수 있는데요. 이를 위한 '사전 동의'를 받는 것입니다. 많은 응원 부탁드립니다. (광고만 메일로 나가는 일은 '결코' 없습니다.)

뉴스레터 구독
닫기

닫기
닫기

뉴스레터 구독이 완료되었습니다.

개인정보 수집 및 이용
닫기

개인정보 이용 목적- 뉴스레터 발송 및 CS처리, 공지 안내 등

개인정보 수집 항목- 이메일 주소, 닉네임

개인정보 보유 및 이용기간- 원칙적으로 개인정보 수집 및 이용목적이 달성된 후에 해당정보를 지체없이 파기합니다. 단, 관계법령의 규정에 의하여 보존할 필요가 있는 경우 일정기간 동안 개인정보를 보관할 수 있습니다.
그 밖의 사항은 경향신문 개인정보취급방침을 준수합니다.

닫기
광고성 정보 수신 동의
닫기

경향신문의 새 서비스 소개, 프로모션 이벤트 등을 놓치지 않으시려면 '광고 동의'를 눌러 주세요.

여러분의 관심으로 뉴스레터가 성장하면 뉴욕타임스, 월스트리트저널 등의 매체처럼 좋은 광고가 삽입될 수 있는데요. 이를 위한 '사전 동의'를 받는 것입니다. 많은 응원 부탁드립니다. (광고만 메일로 나가는 일은 '결코' 없습니다.)

닫기