Anthropic、Department of War方針を公開 国防支援は継続しつつ2つのsafeguardを維持
Original: A statement from Anthropic CEO, Dario Amodei, on our discussions with the Department of War. https://t.co/rM77LJejuk View original →
X投稿と公式声明の要点
Anthropicは2026-02-26、CEO Dario Amodei名義の声明をXで共有した。声明では、米国および同盟国の防衛目的でのAI活用を支持するとしたうえで、Claudeがintelligence analysis、modeling and simulation、operational planning、cyber operationsなどの任務領域で既に使われていると説明している。
維持するとした2つの制約
同社は適用範囲を明確化し、2点を除外した。1つ目はmass domestic surveillanceで、AIが断片的な行動データを統合して大規模監視に発展させるリスクを理由に挙げた。2つ目はfully autonomous weaponsで、現行のfrontier modelは信頼性が十分ではなく、安全性と監督の枠組みが不十分だとしている。
声明によれば、Anthropicは信頼性向上のための共同R&Dも提案したが、受け入れられなかったという。
調達条件との衝突
声明では、Department of War側が"any lawful use"の受諾と上記2領域のsafeguard解除を求めたと記載している。Anthropicは、その条件には応じられない立場を維持しつつ、2つのsafeguardを残した形で防衛支援を継続することを希望すると述べた。
なぜ高シグナルか
この更新は、AI安全性の議論が原則論から契約運用レベルへ移行していることを示す。実務上は、モデル選定が性能や価格だけでなく、供給事業者の政策、政府調達要件、そして方針不一致時の運用継続性まで含む判断になってきた点が重要だ。
Primary sources: X post, Anthropic statement.
Related Articles
r/artificialの注目投稿は、Axios報道を引用して米軍作戦でClaudeが使われた可能性を提示。論点は性能だけでなく、利用境界と責任分担をどう設計するかというmodel governanceにある。
Axiosによると、NSAはAnthropicのMythos Previewを利用している。一方でPentagon幹部は同社をsupply-chain riskと見ており、AI safetyの制限と連邦政府のcybersecurity需要が衝突している。
Anthropicの新しい実験が重要なのは、モデル性能がそのまま金銭価値に変わる場面を示したからだ。69人の社内市場でClaudeエージェントは186件、4,000ドル超の取引を成立させ、Opus側はより有利な価格を得ても利用者はほとんど不公平さを感じなかった。
Comments (0)
No comments yet. Be the first to comment!