Anthropic、米Department of Warとの協議でAI safeguards維持を表明
Original: Statement from Dario Amodei on our discussions with the Department of War View original →
発表の要点
AnthropicのCEO Dario Amodeiは2026年2月26日、Department of Warとの協議に関する声明を公開し、米国の国家安全保障領域へのAI提供を継続する一方で、契約上の重要な安全制約は外さないと明言した。声明では、Claudeがintelligence analysis、modeling and simulation、operational planning、cyber operationsなどの業務で既に活用されていると説明している。
同社は、自社がclassified networkへの導入やNational Laboratoriesへの展開、national security向けcustom model提供で先行してきたとしつつ、用途の拡大がそのまま無制限利用を意味するわけではないという立場を示した。
維持するとした2つの制限
- Mass domestic surveillance: 国内での大規模監視へのAI利用は民主的価値と整合しないという判断
- Fully autonomous weapons: 人間の実質的関与なしにtarget selectionとengagementを行う完全自律兵器には現行frontier modelを提供しない方針
Anthropicは、部分的な自律化を含む防衛用途の重要性は認めつつ、完全自律兵器については現時点のmodel reliabilityとoversight体制が不十分だと述べた。
産業的インプリケーション
この事案は、公共調達におけるAI競争の主軸が性能指標だけでなく、契約条項に埋め込まれたgovernance設計へ移っていることを示す。Anthropicは、仮に契約継続に至らない場合でも移行を支援し、ミッション継続への影響を最小化する意向を示した。
今後の焦点は、政府調達が明示的ガードレールを維持するベンダーを許容するか、あるいはany lawful use型の要件に収斂するかである。いずれにせよ、今回の声明は、frontier AIの実運用でcapability、national security、policy accountabilityが同時に問われる段階に入ったことを示す重要なシグナルとなっている。
Related Articles
Anthropicは3月4日にDepartment of Warから供給網リスク指定の通知を受領したとし、適用範囲は限定的だとして司法判断を求める方針を示した。
Anthropicは、powerful AIが社会にもたらす課題を扱う公益組織The Anthropic Instituteを立ち上げた。technical・economic・social scienceの知見を組み合わせ、より広いpublic conversationに資する活動を進めるとしている。
Anthropicは2026年2月26日の声明で、米国の防衛・情報分野でのAI展開は継続しつつ、mass domestic surveillanceとfully autonomous weaponsは受け入れないと示した。
Comments (0)
No comments yet. Be the first to comment!