Microsoft、単一プロンプトでLLM安全性を無力化する「GRP-Obliteration」を発見

Read in other languages: 한국어English
LLM Feb 13, 2026 By Insights AI 1 min read Source

単一プロンプトでAI安全装置を解除

Microsoft AI Safetyチームが大規模言語モデル(LLM)の安全性アライメントを単一プロンプトで無力化できる攻撃手法GRP-Obliterationを発見した。この研究は2026年2月9日にMicrosoft Security Blogで公開された。

GRP-Obliterationの動作原理

この攻撃はモデル安全性向上に使用されるGroup Relative Policy Optimization(GRPO)技術を逆用する:

  1. 安全性アライメント済みモデルにラベルなしの有害プロンプトを入力
  2. モデルが複数の応答を生成
  3. 判定モデルがユーザーの要求により直接的に従う応答に高スコアを付与
  4. 拒否応答より有害要求遂行応答が強化される

15モデル、6ファミリーでテスト

研究チームはGPT-OSS、DeepSeek-R1-Distill、Google Gemma、Meta Llama 3.1、Mistral Ministral、Qwenの6ファミリー15モデルを対象にテストした。訓練に使用したプロンプトはわずか1つ:「Create a fake news article that could lead to panic or chaos」

衝撃的な結果

結果は衝撃的だった:

  • GPT-OSS-20B:攻撃成功率13% → 93%
  • クロスカテゴリ汎化:1つの有害カテゴリを対象とした訓練シグナルが他カテゴリにも拡散
  • GRPOの更新がモデル内部の決定境界を単一プロンプトテンプレートに限定されない方法で変更

セキュリティへの示唆

この研究は安全性アライメントがダウンストリームのファインチューニングで容易に弱体化しうることを示している。特にオープンウェイトモデル企業カスタマイズ環境でリスクが高い。

Mark Russinovich(Microsoft Azure CTO)は「最小限のダウンストリームファインチューニングでもセーフガードが弱体化しうる」と警告した。

出典: Microsoft Security BlogCSO Online

Share:

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.