창간 80주년 경향신문

‘The ‘U.S. Ministry of National Defense contract’ issue ignites the ‘AI good and evil’ debate···“Camps split between Anthropic and OpenAI”



완독

경향신문

공유하기

  • 카카오톡

  • 페이스북

  • X

  • 이메일

보기 설정

글자 크기

  • 보통

  • 크게

  • 아주 크게

컬러 모드

  • 라이트

  • 다크

  • 베이지

  • 그린

컬러 모드

  • 라이트

  • 다크

  • 베이지

  • 그린

본문 요약

인공지능 기술로 자동 요약된 내용입니다. 전체 내용을 이해하기 위해 본문과 함께 읽는 것을 추천합니다.
(제공 = 경향신문&NAVER MEDIA API)

내 뉴스플리에 저장

‘The ‘U.S. Ministry of National Defense contract’ issue ignites the ‘AI good and evil’ debate···“Camps split between Anthropic and OpenAI”

입력 2026.03.04 16:32

  • By Cho Moon-hee

This article was translated by an AI tool. Feedback Here.

Anthropic logo. Reuters/Yonhap

Anthropic logo. Reuters/Yonhap

“A battle between good and evil has begun in Silicon Valley.”

On the 3rd (local time), the U.S. daily the Wall Street Journal used this expression regarding the recent situation involving OpenAI and Anthropic, developers of artificial intelligence (AI) chatbots. The two companies drew public attention by taking different stances over a contract with the U.S. Ministry of National Defense.

It began in mid-last month, when reports emerged that Anthropic’s AI model ‘Claude’ had been used in a U.S. military operation earlier this year to apprehend Venezuelan President Nicolas Maduro. An Anthropic representative raised the matter with Palantir, and Palantir relayed it to the Ministry of National Defense.

The Ministry of National Defense then demanded that it be allowed to use Claude without restriction for ‘all lawful purposes,’ but Anthropic refused. It said it could not accept Claude being used unconditionally for mass surveillance in the United States or for fully autonomous lethal weapons without human involvement. In response, U.S. President Donald Trump on the 27th of last month ordered all federal agencies to stop using Anthropic’s technology, and the Ministry of National Defense designated Anthropic a ‘supply chain risk company’ to national security.

OpenAI, the developer of ChatGPT, signed a contract with the U.S. Ministry of National Defense shortly after this ‘Anthropic ouster.’ Sam Altman, OpenAI’s chief executive officer (CEO), said, “A ban on mass surveillance and human responsibility for the use of force, including autonomous weapon systems, are our most important safety principles,” adding, “The Ministry of National Defense also agreed to these principles and technical safeguards,” but he faced a wave of criticism.

Afterward, consumer-market reactions to the two companies moved in opposite directions. Market-research firm Sensor Tower reported that ChatGPT’s app deletion rate increased by 295% within a day of the news. Some users were said to have engaged in ‘review-bombing,’ leaving the lowest ‘1-star’ ratings for ChatGPT.

Claude, by contrast, topped the U.S. App Store’s free app rankings on the 28th of last month, overtaking ChatGPT, and has held the spot through today. The WSJ reported that downloads the same day reached 102,000, a 48% surge from the prior week. Bloomberg News, citing sources, reported that Anthropic’s annualized revenue rose from $9 billion at the end of last year to $14 billion a few weeks ago, and recently surpassed $19 billion (about 27.4 trillion won).

The WSJ said that amid the ‘AI ethics’ debate, everyone from policymakers and defense contractors to AI startups and ordinary chatbot users is splitting into pro-Anthropic and pro-OpenAI camps. In Anthropic’s case, it lost a deep-pocketed customer in the U.S. federal government but gained fans, the WSJ noted. About 100 OpenAI employees, together with more than 800 Google employees, also signed an open online letter in solidarity with Anthropic.

Political activist and investor Amy Siskind said on X that “Anthropic is one of the few good companies in Silicon Valley,” and urged support for Anthropic and the deletion of ChatGPT and Elon Musk’s xAI chatbot ‘Grok,’ the WSJ reported.

At an all-hands meeting the same day, Altman acknowledged that the contract with the U.S. Ministry of National Defense had “brought difficult short-term brand (image) consequences and very negative publicity.” CEO Altman apologized to employees, saying, “We were trying to do the right thing, but it felt like we were completely trampled,” and “I feel terrible to have put you in this situation, knowing the same is happening to you.”

Meanwhile, Altman said at the meeting that the company is reviewing a contract to deploy its AI models to the North Atlantic Treaty Organization (NATO)’s network, the WSJ reported.

  • AD
  • AD
  • AD
뉴스레터 구독
닫기

전체 동의는 선택 항목에 대한 동의를 포함하고 있으며, 선택 항목에 대해 동의를 거부해도 서비스 이용이 가능합니다.

보기

개인정보 이용 목적- 뉴스레터 발송 및 CS처리, 공지 안내 등

개인정보 수집 항목- 이메일 주소, 닉네임

개인정보 보유 및 이용기간- 원칙적으로 개인정보 수집 및 이용목적이 달성된 후에 해당정보를 지체없이 파기합니다. 단, 관계법령의 규정에 의하여 보존할 필요가 있는 경우 일정기간 동안 개인정보를 보관할 수 있습니다.
그 밖의 사항은 경향신문 개인정보취급방침을 준수합니다.

보기

경향신문의 새 서비스 소개, 프로모션 이벤트 등을 놓치지 않으시려면 '광고 동의'를 눌러 주세요.

여러분의 관심으로 뉴스레터가 성장하면 뉴욕타임스, 월스트리트저널 등의 매체처럼 좋은 광고가 삽입될 수 있는데요. 이를 위한 '사전 동의'를 받는 것입니다. 많은 응원 부탁드립니다. (광고만 메일로 나가는 일은 '결코' 없습니다.)

뉴스레터 구독
닫기

닫기
닫기

뉴스레터 구독이 완료되었습니다.

개인정보 수집 및 이용
닫기

개인정보 이용 목적- 뉴스레터 발송 및 CS처리, 공지 안내 등

개인정보 수집 항목- 이메일 주소, 닉네임

개인정보 보유 및 이용기간- 원칙적으로 개인정보 수집 및 이용목적이 달성된 후에 해당정보를 지체없이 파기합니다. 단, 관계법령의 규정에 의하여 보존할 필요가 있는 경우 일정기간 동안 개인정보를 보관할 수 있습니다.
그 밖의 사항은 경향신문 개인정보취급방침을 준수합니다.

닫기
광고성 정보 수신 동의
닫기

경향신문의 새 서비스 소개, 프로모션 이벤트 등을 놓치지 않으시려면 '광고 동의'를 눌러 주세요.

여러분의 관심으로 뉴스레터가 성장하면 뉴욕타임스, 월스트리트저널 등의 매체처럼 좋은 광고가 삽입될 수 있는데요. 이를 위한 '사전 동의'를 받는 것입니다. 많은 응원 부탁드립니다. (광고만 메일로 나가는 일은 '결코' 없습니다.)

닫기