Anthropic、国内大規模監視と完全自律兵器を契約対象外とする方針を明確化
Original: Statement from Dario Amodei on our discussions with the Department of War View original →
議論の発端
Hacker Newsで大きな反応(クロール時点で2,594ポイント、1,392コメント)を集めたのは、Anthropic CEO Dario Amodeiが2026年2月26日に公開した声明だ。注目点は、防衛利用そのものを否定していないことにある。むしろ導入を進める立場を示しながら、契約上の禁止領域を明文化している。
Anthropicが支持する防衛利用
声明では、AIを民主主義陣営の防衛に不可欠な技術と位置づける。Anthropicは、米政府のclassified network、National Laboratories、national security向けカスタムモデル提供で先行してきたと説明し、用途としてintelligence analysis、modeling and simulation、operational planning、cyber operationsなどを挙げている。
受け入れない2つの用途
争点は、Department of War契約に含めるべきではないとした次の2点である。
- Mass domestic surveillance: AIが移動履歴・閲覧履歴・交友関係データを大規模に統合できるため、市民的自由への新しいリスクが生じるという主張。
- Fully autonomous weapons: 人間をループから外す完全自律の標的選定・交戦は、現行のfrontier AIの信頼性と監督体制では時期尚早だという判断。
Anthropicは、この2例外は軍での導入加速を妨げていないとも述べる。加えて、軍事判断の主体は政府であり、企業が作戦判断を代替するものではない点を強調した。
実務的インパクト
この声明は、2026年のAI調達で「導入拡大」と「利用境界設定」が同時進行していることを示す。今後は性能比較だけでなく、autonomyの閾値、国内データ利用範囲、監査可能性と責任分界をどう契約に落とし込むかが、導入実務の中核になる可能性が高い。
出典: Anthropic声明、HN議論
Related Articles
選挙シーズンのAI安全策は、理念より測定値が重くなりつつある。Anthropicは2026年4月24日、Claudeの選挙関連評価を公開し、600件の有害・正当プロンプト評価でOpus 4.7とSonnet 4.6がそれぞれ100%と99.8%、影響工作シミュレーションでも90%と94%の適切応答率だったと示した。
Anthropicは3月4日にDepartment of Warから供給網リスク指定の通知を受領したとし、適用範囲は限定的だとして司法判断を求める方針を示した。
Anthropicは2026年3月31日、豪州政府とAI safety研究およびAustralia National AI Plan支援に関するMOUを締結したと発表した。Australia AI Safety Instituteとの協力、Economic Indexデータ共有、豪州研究機関とのAUD$3 million規模の提携が含まれるとしている。
Comments (0)
No comments yet. Be the first to comment!