Anthropic, 국내 대규모 감시와 완전자율무기 조항은 계약에서 제외해야 한다고 명시
Original: Statement from Dario Amodei on our discussions with the Department of War View original →
왜 이 이슈가 커졌나
Hacker News에서 높은 반응(크롤링 시점 2,594점, 댓글 1,392개)을 받은 주제는 Anthropic CEO Dario Amodei의 2026년 2월 26일 성명이다. 핵심은 “국방 협력 중단”이 아니라, 협력을 유지하면서도 계약상 금지해야 할 사용 사례를 명확히 제시했다는 점이다.
Anthropic이 명확히 지지한 영역
성명은 AI를 민주주의 국가 방어 역량의 핵심으로 규정한다. 동시에 Anthropic이 미국 정부의 classified network, National Laboratories, 맞춤형 national security 모델 공급에서 선제적으로 참여해 왔다고 설명한다. 실제 활용 범위로는 intelligence analysis, modeling and simulation, operational planning, cyber operations 등이 언급된다.
수용 불가라고 밝힌 2개 조항
논쟁의 중심은 Anthropic이 계약에 넣지 말아야 한다고 밝힌 두 항목이다.
- Mass domestic surveillance: 대규모 국내 감시에 AI를 결합하면 개인 이동·브라우징·관계 데이터가 자동 결합되어 기본권 침해 위험이 커진다는 주장이다.
- Fully autonomous weapons: 인간 개입 없이 표적 선정·교전을 수행하는 수준에 대해 현재 frontier AI의 신뢰성이 충분하지 않고, 운영 guardrail도 미성숙하다고 본다.
Anthropic은 이 두 예외가 지금까지 광범위한 군 내 도입 자체를 막지는 않았다고 덧붙였다. 또한 군사 의사결정 권한은 정부에 있고 민간 기업이 작전 자체를 통제하려는 것이 아니라는 점도 반복했다.
실무 관점의 시사점
이번 성명은 “국방 적용”과 “무제한 허용”이 분리되고 있음을 보여준다. 앞으로 조달·통합 단계에서는 성능 지표뿐 아니라 autonomy 경계, domestic data 처리 범위, 책임소재와 감사 가능성 같은 계약 조항이 핵심 경쟁축이 될 가능성이 높다.
출처: Anthropic 공식 성명, HN 토론
Related Articles
선거 시즌 AI 안전은 선언보다 숫자가 더 중요해지고 있다. Anthropic는 2026년 4월 24일 Claude의 선거 관련 테스트 결과를 공개하며, 600개 프롬프트 평가에서 Opus 4.7과 Sonnet 4.6이 각각 100%와 99.8%로 대응했고, 영향력 공작 시뮬레이션에서도 90%와 94%의 적절한 응답 비율을 기록했다고 밝혔다.
Anthropic가 Department of War의 활용 확대 요구에도 mass domestic surveillance와 fully autonomous weapons 관련 안전장치는 유지하겠다고 밝혔다. 회사는 국가안보 협력은 계속하되, 현재 모델 신뢰성과 민주적 가치 기준을 넘는 활용은 수용하지 않겠다는 입장을 재확인했다.
Anthropic은 3월 4일 국방부 서한으로 공급망 위험 지정이 통보됐다고 밝히며, 적용 범위는 제한적이고 법원 대응에 나서겠다고 발표했다.
Comments (0)
No comments yet. Be the first to comment!