Anthropic이 Pentagon의 자율형 살상무기·대규모 감시 정책 제거 압박을 거부해 공급망 위협 지정으로 보복받았으나, 연방 법원이 이를 위헌으로 판단하며 AI 안전 정책의 법적 보호 확립
Anthropic Beat the Pentagon in Court — Here's Why It Matters
AI 요약
Context
Anthropic은 2025년 7월 Pentagon과 2억 달러 규모 계약을 체결해 분류된 군사 네트워크에 Claude를 배포했다. 2025년 9월 Pentagon은 GenAI.mil 플랫폼에 Claude를 배포하려다 자율형 치명적 무기 사용 금지와 국내 대규모 감시 금지라는 두 가지 정책을 제거하도록 요구했다. Anthropic이 거부하자 Defense Secretary Pete Hegseth는 2026년 2월 Anthropic을 공급망 위협으로 지정했는데, 이 지정은 미국 기업에 처음 공개 적용된 것이었다.
Technical Solution
- 안전 정책의 법적 구조 정립: Anthropic이 자율형 무기 및 감시 사용에 대한 명확한 사용 정책 제한을 Claude API에 포함시켜 개발자가 구축한 소프트웨어의 기본 안전 장치로 작동하도록 설계
- 정부 요구에 대한 정책 독립성 유지: 분류된 네트워크 운영, 군사 정보 분석, 물류 최적화 요청은 수용하면서 안전 제한은 제거하지 않음으로써 기술과 정책의 분리 모델 시연
- 공개 투명성을 통한 법적 근거 구성: Anthropic이 Pentagon의 요구 거부를 언론에 공개함으로써 정부 보복 행위를 기록 가능한 형태로 남김
Impact
연방 지방법원 Judge Rita Lin은 2026년 3월 26일 발령한 43페이지 규정 위반 금지 명령(preliminary injunction)에서 Anthropic에 대한 공급망 위협 지정을 즉시 중단하도록 명령했다.
Key Takeaway
AI API 공급업체의 안전 정책은 정부의 제거 요구에 대해 헌법적 보호를 받을 수 있으며, 이는 Claude, OpenAI, Google Gemini 등 모든 상용 AI 플랫폼의 사용 제한 정책이 법적으로 유지될 수 있음을 의미한다. 이 판례는 향후 AI 기업과 정부 기관 간 안전 정책 분쟁에서 선례로 작용하게 된다.
실천 포인트
Claude API를 사용하는 개발팀은 이 사건이 확정되기 전까지 API의 자율형 무기 및 감시 금지 정책이 유지될 가능성이 높음을 인지하고, 향후 정부 고객과의 계약에서 이러한 정책 제한이 사용자 요구사항이 아닌 플랫폼 제약으로 명확히 전달할 필요가 있다. 대규모 계약을 검토할 때 정책 제거 요청에 대한 법적 위험성을 사전에 평가하면 정부 보복으로부터 회사를 보호할 수 있다.