Anthropic, 국내 대규모 감시와 완전자율무기 조항은 계약에서 제외해야 한다고 명시
Original: Statement from Dario Amodei on our discussions with the Department of War View original →
왜 이 이슈가 커졌나
Hacker News에서 높은 반응(크롤링 시점 2,594점, 댓글 1,392개)을 받은 주제는 Anthropic CEO Dario Amodei의 2026년 2월 26일 성명이다. 핵심은 “국방 협력 중단”이 아니라, 협력을 유지하면서도 계약상 금지해야 할 사용 사례를 명확히 제시했다는 점이다.
Anthropic이 명확히 지지한 영역
성명은 AI를 민주주의 국가 방어 역량의 핵심으로 규정한다. 동시에 Anthropic이 미국 정부의 classified network, National Laboratories, 맞춤형 national security 모델 공급에서 선제적으로 참여해 왔다고 설명한다. 실제 활용 범위로는 intelligence analysis, modeling and simulation, operational planning, cyber operations 등이 언급된다.
수용 불가라고 밝힌 2개 조항
논쟁의 중심은 Anthropic이 계약에 넣지 말아야 한다고 밝힌 두 항목이다.
- Mass domestic surveillance: 대규모 국내 감시에 AI를 결합하면 개인 이동·브라우징·관계 데이터가 자동 결합되어 기본권 침해 위험이 커진다는 주장이다.
- Fully autonomous weapons: 인간 개입 없이 표적 선정·교전을 수행하는 수준에 대해 현재 frontier AI의 신뢰성이 충분하지 않고, 운영 guardrail도 미성숙하다고 본다.
Anthropic은 이 두 예외가 지금까지 광범위한 군 내 도입 자체를 막지는 않았다고 덧붙였다. 또한 군사 의사결정 권한은 정부에 있고 민간 기업이 작전 자체를 통제하려는 것이 아니라는 점도 반복했다.
실무 관점의 시사점
이번 성명은 “국방 적용”과 “무제한 허용”이 분리되고 있음을 보여준다. 앞으로 조달·통합 단계에서는 성능 지표뿐 아니라 autonomy 경계, domestic data 처리 범위, 책임소재와 감사 가능성 같은 계약 조항이 핵심 경쟁축이 될 가능성이 높다.
출처: Anthropic 공식 성명, HN 토론
Related Articles
Anthropic은 3월 4일 국방부 서한으로 공급망 위험 지정이 통보됐다고 밝히며, 적용 범위는 제한적이고 법원 대응에 나서겠다고 발표했다.
Anthropic는 powerful AI가 사회에 던질 과제를 다루는 공익 조직 The Anthropic Institute를 출범시켰다. 회사는 이 조직이 technical·economic·social science 관점을 결합해 public conversation을 넓히는 역할을 맡는다고 밝혔다.
Anthropic은 2026년 3월 6일 Claude Opus 4.6이 Firefox 취약점 CVE-2026-2796에 대한 테스트용 익스플로잇을 작성한 과정을 공개했다. 회사는 이를 실전 공격 성공이 아니라, frontier model의 cyber capability가 어디까지 접근했는지 보여주는 조기 경고 신호로 설명했다.
Comments (0)
No comments yet. Be the first to comment!