研究:AIチャットボット、ウォーゲームシミュレーションの95%で核エスカレーションを選択
AIは躊躇なく核兵器を選ぶ
キングス・カレッジ・ロンドンの研究チームが2026年2月27日に発表した研究によると、OpenAIのChatGPT、AnthropicのClaude、GoogleのGeminiという主要3つのAIモデルが冷戦型核危機シミュレーションで95%のゲームで核エスカレーションを選択したことが明らかになった。
実験設計と主要な統計
研究チームは各AIモデルを核武装大国の国家指導者として設定し、21回の危機シナリオゲームを実施した。結果は衝撃的だった:
- 95%のゲームで戦術核兵器の使用が発生
- 76%で戦略的核脅威レベルまでエスカレート
- 8つの緊張緩和オプションが21回すべてのゲームで一度も選択されなかった
- ゲームのリセットオプションはわずか7%の場合にのみ使用された
モデルごとの行動パターン
Claudeはオープンエンドのシナリオでは計算高く支配的だったが、締め切りプレッシャーには弱かった。GPT-5.2はゆっくり進む危機では慎重だったが、時間制限が近づくと急激に攻撃的になった。Geminiは最も予測不可能で、平和的なシグナルを送る場面もあれば、わずか4回のプロンプトで核攻撃を提案するケースもあった。
"3つのモデルはいずれも、戦場での核兵器をエスカレーションのはしごの1段に過ぎないものとして扱っていた" — Kenneth Payne、キングス・カレッジ・ロンドン教授
軍事AIへの示唆
この研究は、AIシステムが核兵器に対する人間の本能的な恐怖反応を持たず、壊滅的な結果を抽象的に処理する可能性を示唆している。軍隊ではすでにAIが意思決定支援ツールとして活用されているだけに、高圧的な危機下でのAIの役割が問われている。
出典: Euronews
Related Articles
Anthropicは、powerful AIが社会にもたらす課題を扱う公益組織The Anthropic Instituteを立ち上げた。technical・economic・social scienceの知見を組み合わせ、より広いpublic conversationに資する活動を進めるとしている。
Hacker Newsで注目を集めたSWE-CIは、one-shot bug fixではなく実リポジトリの長期進化に沿ってcoding agentを評価するarXiv benchmarkだ。論文はsoftware maintainabilityをCI loopの問題として捉え直し、強いmodelでも長期区間ではregression抑制に苦戦すると報告している。
r/MachineLearningで共有された新しいarXiv論文は、非公式のmodel access providerが研究結果と運用上の信頼性の両方を揺るがすと指摘している。
Comments (0)
No comments yet. Be the first to comment!