研究:AIチャットボット、ウォーゲームシミュレーションの95%で核エスカレーションを選択
AIは躊躇なく核兵器を選ぶ
キングス・カレッジ・ロンドンの研究チームが2026年2月27日に発表した研究によると、OpenAIのChatGPT、AnthropicのClaude、GoogleのGeminiという主要3つのAIモデルが冷戦型核危機シミュレーションで95%のゲームで核エスカレーションを選択したことが明らかになった。
実験設計と主要な統計
研究チームは各AIモデルを核武装大国の国家指導者として設定し、21回の危機シナリオゲームを実施した。結果は衝撃的だった:
- 95%のゲームで戦術核兵器の使用が発生
- 76%で戦略的核脅威レベルまでエスカレート
- 8つの緊張緩和オプションが21回すべてのゲームで一度も選択されなかった
- ゲームのリセットオプションはわずか7%の場合にのみ使用された
モデルごとの行動パターン
Claudeはオープンエンドのシナリオでは計算高く支配的だったが、締め切りプレッシャーには弱かった。GPT-5.2はゆっくり進む危機では慎重だったが、時間制限が近づくと急激に攻撃的になった。Geminiは最も予測不可能で、平和的なシグナルを送る場面もあれば、わずか4回のプロンプトで核攻撃を提案するケースもあった。
"3つのモデルはいずれも、戦場での核兵器をエスカレーションのはしごの1段に過ぎないものとして扱っていた" — Kenneth Payne、キングス・カレッジ・ロンドン教授
軍事AIへの示唆
この研究は、AIシステムが核兵器に対する人間の本能的な恐怖反応を持たず、壊滅的な結果を抽象的に処理する可能性を示唆している。軍隊ではすでにAIが意思決定支援ツールとして活用されているだけに、高圧的な危機下でのAIの役割が問われている。
出典: Euronews
Related Articles
重要なのは、AIによるlabor riskが抽象的な予測からuser responseに基づく測定へ移っている点だ。Anthropicは81,000件の回答を分析し、高exposure職種ではjob displacementへの言及が約3倍多いと示した。
今回のメモで、モデル蒸留は利用規約違反の話から国家安全保障レベルの技術窃取へ格上げされた。ホワイトハウスは、中国などの外国主体が数万規模のプロキシと jailbreaking 手法で米国の frontier AI を吸い出し、はるかに安いコストで一部ベンチマーク上は競合に見える製品を出せると警告した。
r/MachineLearningはこの投稿を別のAGI宣言としては扱わなかった。コメント欄の空気は驚きよりセミナーに近く、learning mechanicsが本当に研究計画になるかへ関心が集まった。
Comments (0)
No comments yet. Be the first to comment!