Anthropic, Department of War 입장문 공개: 국방 협력은 유지하되 두 가지 safeguard는 고수
Original: A statement from Anthropic CEO, Dario Amodei, on our discussions with the Department of War. https://t.co/rM77LJejuk View original →
X 게시물과 공식 문서
Anthropic는 2026-02-26 X 게시물에서 CEO Dario Amodei의 공식 입장문을 연결했다. 문서에서 Anthropic는 미국 및 동맹국의 안보 목적 AI 활용을 지지한다고 밝히며, Claude가 intelligence analysis, modeling and simulation, operational planning, cyber operations 등 mission-critical 영역에 이미 사용되고 있다고 설명했다.
Anthropic가 명시한 두 가지 제한
입장문은 허용 범위와 비허용 범위를 분명히 구분한다. 첫째, mass domestic surveillance는 지원하지 않겠다고 했다. 이유는 AI가 분산된 행동 데이터와 온라인 데이터를 결합해 대규모 개인 감시로 확장될 수 있다는 점이다. 둘째, 현재 frontier model 신뢰성으로는 fully autonomous weapons 운용이 안전하지 않다고 보고, 해당 용도에는 모델을 제공하지 않겠다고 밝혔다.
Anthropic는 관련 신뢰성 향상을 위한 공동 R&D를 제안했다고도 설명했지만, 해당 제안은 수용되지 않았다고 적었다.
조달 조건 충돌과 운영 리스크
문서에 따르면 Department of War는 "any lawful use" 수용과 위 두 영역의 safeguard 제거를 요구했고, 유지 시 offboarding 가능성을 포함한 강경 조치를 통보했다. Anthropic는 그 조건을 받아들일 수 없다는 입장을 유지하면서도, 두 safeguard를 유지한 형태로 국방 고객 지원을 계속하는 것이 자사 선호라고 밝혔다.
왜 중요한 신호인가
이번 사안은 AI safety 논의가 선언 수준을 넘어 실제 계약 조건과 운영 경계로 내려왔다는 점에서 의미가 크다. 기업과 공공 부문 입장에서는 모델 선택이 단순 성능/비용 비교를 넘어, 공급사 정책과 조달 요구의 정합성, 그리고 불일치 시 서비스 연속성 리스크까지 포함하는 문제로 바뀌고 있음을 보여준다.
Primary sources: X post, Anthropic statement.
Related Articles
Anthropic는 powerful AI가 사회에 던질 과제를 다루는 공익 조직 The Anthropic Institute를 출범시켰다. 회사는 이 조직이 technical·economic·social science 관점을 결합해 public conversation을 넓히는 역할을 맡는다고 밝혔다.
Anthropic은 3월 4일 국방부 서한으로 공급망 위험 지정이 통보됐다고 밝히며, 적용 범위는 제한적이고 법원 대응에 나서겠다고 발표했다.
r/artificial 인기 글에서 Axios 보도를 인용해 미군이 작전 중 Claude를 활용했을 가능성이 제기됐다. Anthropic의 안전정책과 국방 활용 요구 사이의 긴장이 AI model governance 이슈로 부상하고 있다.
Comments (0)
No comments yet. Be the first to comment!