Anthropic, Department of War 입장문 공개: 국방 협력은 유지하되 두 가지 safeguard는 고수
Original: A statement from Anthropic CEO, Dario Amodei, on our discussions with the Department of War. https://t.co/rM77LJejuk View original →
X 게시물과 공식 문서
Anthropic는 2026-02-26 X 게시물에서 CEO Dario Amodei의 공식 입장문을 연결했다. 문서에서 Anthropic는 미국 및 동맹국의 안보 목적 AI 활용을 지지한다고 밝히며, Claude가 intelligence analysis, modeling and simulation, operational planning, cyber operations 등 mission-critical 영역에 이미 사용되고 있다고 설명했다.
Anthropic가 명시한 두 가지 제한
입장문은 허용 범위와 비허용 범위를 분명히 구분한다. 첫째, mass domestic surveillance는 지원하지 않겠다고 했다. 이유는 AI가 분산된 행동 데이터와 온라인 데이터를 결합해 대규모 개인 감시로 확장될 수 있다는 점이다. 둘째, 현재 frontier model 신뢰성으로는 fully autonomous weapons 운용이 안전하지 않다고 보고, 해당 용도에는 모델을 제공하지 않겠다고 밝혔다.
Anthropic는 관련 신뢰성 향상을 위한 공동 R&D를 제안했다고도 설명했지만, 해당 제안은 수용되지 않았다고 적었다.
조달 조건 충돌과 운영 리스크
문서에 따르면 Department of War는 "any lawful use" 수용과 위 두 영역의 safeguard 제거를 요구했고, 유지 시 offboarding 가능성을 포함한 강경 조치를 통보했다. Anthropic는 그 조건을 받아들일 수 없다는 입장을 유지하면서도, 두 safeguard를 유지한 형태로 국방 고객 지원을 계속하는 것이 자사 선호라고 밝혔다.
왜 중요한 신호인가
이번 사안은 AI safety 논의가 선언 수준을 넘어 실제 계약 조건과 운영 경계로 내려왔다는 점에서 의미가 크다. 기업과 공공 부문 입장에서는 모델 선택이 단순 성능/비용 비교를 넘어, 공급사 정책과 조달 요구의 정합성, 그리고 불일치 시 서비스 연속성 리스크까지 포함하는 문제로 바뀌고 있음을 보여준다.
Primary sources: X post, Anthropic statement.
Related Articles
r/artificial 인기 글에서 Axios 보도를 인용해 미군이 작전 중 Claude를 활용했을 가능성이 제기됐다. Anthropic의 안전정책과 국방 활용 요구 사이의 긴장이 AI model governance 이슈로 부상하고 있다.
중요한 점은 Anthropic이 공개하기엔 너무 위험하다고 밀었던 모델이 짧은 시간 안에 두 번 노출됐다는 데 있다. The Verge는 Mythos가 먼저 unsecured data trove로 존재가 새고, 이어 day-one unauthorized access까지 이어졌다고 적었다.
이 소송의 핵심은 군 내부에 들어간 뒤에도 모델 공급사가 통제 주체로 남는지다. AP가 전한 4월 22일 항소심 서면에서 Anthropic은 Claude가 국방부 기밀망에 배치된 뒤에는 자사가 조작할 수 없다고 주장했고, 이는 정부가 씌운 공급망 위험 딱지를 정면으로 겨냥했다.
Comments (0)
No comments yet. Be the first to comment!