米国防総省、Anthropic CEOを召喚 — Claudeの軍事利用拒否で2億ドル契約破棄の危機
米国防総省とAnthropicの緊張が頂点に
米国防総省とAI企業Anthropicの緊張関係が頂点に達した。2026年2月23日、国防長官ピート・ヘグセスがAnthropic CEOダリオ・アモデイをペンタゴンに正式召喚した。
対立の核心
Anthropicは、Claudeをアメリカ市民への大規模監視や、人間の関与なしに作動する自律型兵器システムに使用することを拒否した。これに対し国防総省は、Anthropicを「サプライチェーンリスク」として指定すると脅迫した。このラベルは通常、外国の敵対勢力に適用される異例の措置だ。
経済的リスク
AnthropicはDoDと2億ドル規模の契約を締結している。サプライチェーンリスク指定が行われれば、この契約は無効となり、他のペンタゴンパートナー企業もClaudeの使用を中止しなければならない。
会議の雰囲気
国防省高官はこの会議を「顔合わせの場ではない」と明言し、「決断を迫る場だ」と強調したとされる。
より広い含意
この衝突は、AI倫理の境界線と国家安全保障における拡大するAIの役割との間の根本的な緊張を示す重要な瞬間だ。主要なAI研究所が防衛産業に深く関与するにつれ、AI開発の倫理的限界をどこに設定するかという議論はますます鋭くなっている。
Related Articles
Anthropicは、powerful AIが社会にもたらす課題を扱う公益組織The Anthropic Instituteを立ち上げた。technical・economic・social scienceの知見を組み合わせ、より広いpublic conversationに資する活動を進めるとしている。
Anthropicは2026年3月11日、強力なAIが社会に与える影響を扱うThe Anthropic Instituteを発表した。既存のFrontier Red Team、Societal Impacts、Economic Researchを束ねるとともに、Public Policy組織の拡大とWashington, DCオフィス開設計画も示している。
トランプ大統領が連邦機関へのAnthropicのAI利用を即時禁止し国防総省が安全保障リスクに指定した直後、OpenAIが競合する国防省との協定を締結し、軍事AIの安全制約をめぐる重大な問題が浮上した。
Comments (0)
No comments yet. Be the first to comment!