Anthropic、Department of War方針を公開 国防支援は継続しつつ2つのsafeguardを維持
Original: A statement from Anthropic CEO, Dario Amodei, on our discussions with the Department of War. https://t.co/rM77LJejuk View original →
X投稿と公式声明の要点
Anthropicは2026-02-26、CEO Dario Amodei名義の声明をXで共有した。声明では、米国および同盟国の防衛目的でのAI活用を支持するとしたうえで、Claudeがintelligence analysis、modeling and simulation、operational planning、cyber operationsなどの任務領域で既に使われていると説明している。
維持するとした2つの制約
同社は適用範囲を明確化し、2点を除外した。1つ目はmass domestic surveillanceで、AIが断片的な行動データを統合して大規模監視に発展させるリスクを理由に挙げた。2つ目はfully autonomous weaponsで、現行のfrontier modelは信頼性が十分ではなく、安全性と監督の枠組みが不十分だとしている。
声明によれば、Anthropicは信頼性向上のための共同R&Dも提案したが、受け入れられなかったという。
調達条件との衝突
声明では、Department of War側が"any lawful use"の受諾と上記2領域のsafeguard解除を求めたと記載している。Anthropicは、その条件には応じられない立場を維持しつつ、2つのsafeguardを残した形で防衛支援を継続することを希望すると述べた。
なぜ高シグナルか
この更新は、AI安全性の議論が原則論から契約運用レベルへ移行していることを示す。実務上は、モデル選定が性能や価格だけでなく、供給事業者の政策、政府調達要件、そして方針不一致時の運用継続性まで含む判断になってきた点が重要だ。
Primary sources: X post, Anthropic statement.
Related Articles
Anthropicは、powerful AIが社会にもたらす課題を扱う公益組織The Anthropic Instituteを立ち上げた。technical・economic・social scienceの知見を組み合わせ、より広いpublic conversationに資する活動を進めるとしている。
Anthropicは3月4日にDepartment of Warから供給網リスク指定の通知を受領したとし、適用範囲は限定的だとして司法判断を求める方針を示した。
r/artificialの注目投稿は、Axios報道を引用して米軍作戦でClaudeが使われた可能性を提示。論点は性能だけでなく、利用境界と責任分担をどう設計するかというmodel governanceにある。
Comments (0)
No comments yet. Be the first to comment!