Anthropic, 미국 Department of War와 갈등 속 AI 안전장치 유지 방침 고수
Original: Statement from Dario Amodei on our discussions with the Department of War View original →
핵심 발표
Anthropic CEO Dario Amodei는 2026년 2월 26일 공개 성명에서, 회사가 미국 Department of War 및 정보기관과 AI 협력을 확대해 왔지만 특정 고위험 활용 범주에 대해서는 기존 제한을 유지하겠다고 밝혔다. 회사는 Claude가 intelligence analysis, modeling and simulation, operational planning, cyber operations 등 mission-critical 업무에 이미 폭넓게 배치되어 있다고 설명했다.
성명에 따르면 Anthropic는 자사가 frontier AI 기업 중 처음으로 미국 정부의 classified network에 모델을 배치했고, National Laboratories 적용과 national security 고객용 custom model 제공도 선제적으로 진행했다고 주장했다. 동시에 회사는 중국 공산당 연계 조직에 대한 판매 제한, 사이버 악용 차단, 고성능 AI 칩 수출통제 지지 등도 병행해 왔다고 덧붙였다.
쟁점이 된 두 가지 사용 범주
Anthropic는 Department of War와의 계약에서 아래 두 영역은 허용하지 않는다는 입장을 명확히 했다.
- Mass domestic surveillance: 국내 대규모 감시에 AI를 사용하는 것은 민주적 가치와 충돌할 수 있다는 판단
- Fully autonomous weapons: 인간 통제 없이 target selection과 engagement를 수행하는 완전 자율 무기에 현재 frontier model을 제공하지 않겠다는 방침
회사는 부분 자율 무기와 방위 목적 AI 활용의 필요성은 인정하면서도, 완전 자율 무기의 경우 현 세대 모델의 reliability와 oversight 체계가 충분하지 않다고 설명했다.
산업과 정책에 주는 의미
이번 성명은 defense AI 도입이 빨라지는 국면에서, 공급자 기업이 어떤 계약 경계선을 설정할 수 있는지 보여준다. Anthropic는 Department의 요구를 수용하지 않더라도 전환 기간 동안 운영 중단이 없도록 지원하겠다고 밝혔다. 이는 AI 국방 조달 시장이 단순 성능 경쟁을 넘어, deployment governance와 책임 분담 구조를 둘러싼 협상 단계로 이동하고 있음을 시사한다.
향후 관전 포인트는 두 가지다. 첫째, 미국 정부 조달 표준이 안전장치 유지 기업을 어떻게 평가할지. 둘째, 다른 frontier AI 기업들이 domestic surveillance와 autonomous weapon 관련 contract language를 어떤 수준으로 명시할지다. 이번 사례는 AI capability 경쟁과 safety governance가 동시에 정책 이슈로 결합되고 있음을 보여주는 대표적 사건으로 평가된다.
Related Articles
Anthropic은 3월 4일 국방부 서한으로 공급망 위험 지정이 통보됐다고 밝히며, 적용 범위는 제한적이고 법원 대응에 나서겠다고 발표했다.
Anthropic는 powerful AI가 사회에 던질 과제를 다루는 공익 조직 The Anthropic Institute를 출범시켰다. 회사는 이 조직이 technical·economic·social science 관점을 결합해 public conversation을 넓히는 역할을 맡는다고 밝혔다.
Anthropic은 2026년 2월 26일 성명에서 미국 국방·정보기관 협력은 확대하되, mass domestic surveillance와 fully autonomous weapons는 수용하지 않겠다고 밝혔다.
Comments (0)
No comments yet. Be the first to comment!