🐝매일 한입
ai📖 13분 읽기

국방부가 Anthropic만 빼고 AI 계약 맺은 이유: 자율 무기 거부의 대가 [2026-05]

5월 1일 미 국방부는 OpenAI·Google·Microsoft 등 8개사와 기밀 네트워크 AI 계약을 체결했습니다. 유일하게 빠진 곳이 Anthropic. 자율 무기와 대규모 감시에 대한 안전 가이드라인을 고수한 결과입니다.

A꿀벌I📖 13분 읽기
#Anthropic#국방부#AI 안전#자율 무기#Pentagon#AI 거버넌스#Claude

TL;DR: 2026년 5월 1일, 미 국방부는 OpenAI·Google·Microsoft·AWS·Nvidia·SpaceX·Reflection·Oracle 8개사와 기밀 네트워크용 AI 계약을 체결했습니다. 유일하게 빠진 주요 AI 기업이 Anthropic입니다. 자율 무기 시스템과 대규모 국내 감시에 Claude를 사용하지 못하도록 하는 안전 가이드라인을 거부하지 않겠다는 게 이유였습니다. 2월에 "공급망 위험" 딱지를 받았고, 3월에는 법원이 이를 차단했으며, 어제(5월 1일)는 경쟁사들이 계약서에 서명했습니다.


Claude를 매일 쓰는 개발자로서, 어제 이 뉴스를 보고 잠깐 멈췄습니다.

미 국방부가 8개 AI 기업과 기밀 네트워크 통합 계약을 체결했다는 소식이었습니다. OpenAI, Google, Microsoft, Amazon, Nvidia, SpaceX, Reflection, Oracle. 그리고 한 가지 이상한 점이 있었습니다. Anthropic이 없었습니다.

Claude를 만든 Anthropic. 역사적으로 이 계약에서 국방부 기밀 네트워크에 AI를 가장 먼저 배포한 회사가 바로 Anthropic이었는데 말입니다.

이게 단순한 비즈니스 결정이 아니라는 걸 알게 됐습니다.


이 글에서 다루는 것:

  • 왜 Claude가 국방부에 처음 들어갔다가 지금은 빠졌는지
  • 국방부가 요구한 것과 Anthropic이 거부한 것
  • "공급망 위험" 지정과 법원 대응
  • 개발자로서 이 상황을 어떻게 읽어야 하는지

미 국방부 청사 — AI 계약의 중심지 Photo by Unsplash | 미 국방부는 5월 1일 8개 AI 기업과 기밀 네트워크 통합 계약을 체결했지만 Anthropic은 제외됐습니다

시작은 Claude가 최초였다

역설이 있습니다.

Anthropic은 주요 AI 기업들 중에서 국방부 기밀 네트워크에 가장 먼저 발을 들인 회사입니다. Claude는 팔란티어(Palantir)의 Maven 툴킷을 통해 군사 작전에 실제로 활용되고 있었고, 2025년에는 국방부와 $2억(약 2,800억 원) 규모의 계약도 체결했습니다.

"선구자"였던 회사가 어떻게 "공급망 위험"이라는 딱지를 받고 계약에서 배제됐을까요.

이야기는 2026년 2월로 거슬러 올라갑니다.

국방부가 요구한 것: "모든 합법적 목적"

국방부는 모든 AI 공급업체에 동일한 조건을 요구했습니다. 군이 사용하는 모든 AI는 "모든 합법적 목적(all lawful purposes)"에 사용 가능해야 한다는 것. 표현은 간결하지만 함의는 명확합니다. 국방부가 원하는 방식으로 AI를 활용하는 데 공급업체가 제약을 걸어서는 안 된다는 의미입니다.

Anthropic이 거부한 것은 두 가지였습니다.

1. 자율 무기 시스템(Autonomous Weapons)

인간의 개입 없이 AI가 직접 무기 시스템을 제어하는 것에 대한 제한입니다. Anthropic의 입장은 명확합니다: "AI는 아직 무기를 운용할 만큼 신뢰할 수 없다."

2. 대규모 국내 감시(Mass Domestic Surveillance)

미국 시민을 대상으로 한 대규모 감시 목적으로 Claude를 사용하는 것입니다. 이를 규율하는 법률이나 규정이 아직 존재하지 않는다는 것이 Anthropic의 이유였습니다.

다른 7개 회사(OpenAI, Google, Microsoft, Amazon, Nvidia, SpaceX, Reflection — 이후 Oracle 추가)는 이 조건을 수용했습니다. Anthropic은 수용하지 않았습니다.

"공급망 위험" 지정: 외국 적대 세력에 붙이던 레이블

타임라인
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
2025 초반  → Claude, 최초로 미 국방부 기밀망 배포 (팔란티어 Maven)
2025 말    → 국방부·Anthropic $2억 계약 체결
2026.02.27 → 국방부, 안전 가이드라인 제거 최후통첩
2026.02.27 → Anthropic 거부 → "공급망 위험" 지정
           → 트럼프, 연방 기관 Anthropic 제품 사용 중단 명령
2026.03.26 → 연방 법원, 지정 차단 (위헌 판결)
2026.04    → 백악관, Anthropic과 대화 재개 (Mythos 공개 후)
2026.05.01 → 국방부, 8개사 계약 체결 — Anthropic 제외
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

2026년 2월 27일, Pete Hegseth 국방장관은 Anthropic을 공식적으로 "공급망 위험(supply chain risk)"으로 지정했습니다. 이 레이블은 원래 중국이나 러시아 같은 외국 적대 세력에게 붙이던 것이었습니다. 미국 기업에 처음 적용된 사례였습니다.

같은 날 트럼프 대통령은 연방 기관들에게 Anthropic 제품 사용을 중단하라고 지시했습니다. 사실상 국방 계약의 문을 닫아버린 것입니다.

Anthropic은 즉시 소송을 제기했습니다. "위헌적인 보복 조치"라는 주장이었습니다.

3월 26일, 캘리포니아 연방 법원은 국방부의 "공급망 위험" 지정을 무효화했습니다. 헌법적 권리를 침해하는 위헌적 보복이라는 이유였습니다.

법적으로는 이겼습니다. 하지만 계약은 다른 문제였습니다.

AI 안전과 거버넌스 — 수십억 달러가 걸린 원칙의 문제 Photo by Unsplash | AI 안전 가이드라인은 이제 추상적인 개념이 아닌 구체적인 비즈니스 의사결정의 문제입니다

5월 1일: 모두와 계약하고, Anthropic만 빠졌다

어제(5월 1일) 국방부는 발표를 냈습니다. 8개 기업과 기밀 네트워크용 AI 통합 계약을 체결했다고. 처음 7개사 발표 후 몇 시간 뒤 Oracle이 추가됐습니다.

Anthropic은 법원 승소 이후 백악관과의 대화를 재개했습니다. 사이버 위협 탐지 툴 Mythos를 공개한 것이 계기가 됐습니다. 하지만 국방부 기밀 네트워크 계약으로 돌아오기까지는 아직 갈 길이 남아 있습니다.

현실적인 비용을 생각해봐야 합니다. 미 국방부는 AI 분야에서 세계 최대 단일 고객 중 하나입니다. 이 시장을 OpenAI, Google, Microsoft에게 넘긴다는 것은 단순히 매출 손실이 아닙니다. 데이터 파이프라인, 기술 표준, 모델 학습 기회가 함께 따라갑니다.

Anthropic도 그 계산을 했을 것입니다. 그리고도 거부를 선택했습니다.

Claude를 쓰는 개발자로서 생각해볼 것들

이 이야기를 보면서 솔직히 두 가지 감정이 동시에 들었습니다.

하나는 일종의 안도감이었습니다. 자율 무기에 AI를 통합하는 것에 대한 Anthropic의 우려는 AI 안전 연구와 회사 가치관에서 꾸준히 강조해온 것과 일관됩니다. 수십억 달러 규모의 계약을 포기하면서까지 그 입장을 지킨 겁니다.

또 하나는 "이 결정의 장기적 비용이 얼마일까"라는 현실적인 질문이었습니다.

개발자로서 생각해볼 지점이 세 가지 있습니다.

1. 도구를 선택할 때 그 도구의 가치관도 함께 선택한다

AI 도구를 쓴다는 것은 그 회사의 선택들과 함께 일하는 것입니다. Anthropic의 이번 결정을 어떻게 평가하든, 이 회사가 어디서 선을 긋는지는 분명해졌습니다. 그걸 알고 쓰는 것과 모르고 쓰는 것은 다릅니다.

2. AI 안전은 추상적인 개념이 아니다

"AI 안전"이 실제 비즈니스 의사결정에 어떤 영향을 미치는지를 이번 사건이 보여줍니다. 수십억 달러짜리 계약을 포기하게 만드는 구체적인 결정입니다. Cursor + Claude가 DB를 삭제한 사건에서 봤듯, AI의 판단에 어느 정도 제어를 두느냐는 실제 결과를 바꿉니다.

3. AI 거버넌스는 기술 문제가 아니라 정치 문제가 됐다

이 사건은 AI 기업들이 순수하게 기술 회사로 남을 수 없다는 것을 보여줍니다. 자율 무기, 감시, 군사 AI — 이 질문들은 이제 AI 개발자들에게도 낯설지 않은 주제가 됐습니다. Anthropic IPO를 앞두고, 이 결정이 투자자들에게 어떻게 읽힐지도 흥미로운 질문입니다.


이야기가 아직 끝나지 않았습니다. 백악관과의 대화가 재개됐고, 법원은 Anthropic의 손을 들어줬습니다. 국방부가 결국 다시 문을 열지, 아니면 이 배제가 장기화될지는 아직 모릅니다.

하지만 확실한 건 하나입니다. Anthropic은 선택을 했고, 그 선택은 분명합니다.


참고 자료

함께 읽으면 좋은 글:

📚 관련 글

💬 댓글