OpenAI、GPT-5.5のバイオ脱獄に懸賞金 初の万能突破へ$25,000

Original: GPT‑5.5 Bio Bug Bounty View original →

Read in other languages: 한국어English
AI Apr 23, 2026 By Insights AI 1 min read Source

安全性の話は抽象論で終わりがちだ。OpenAIのGPT-5.5 Bio Bug Bountyはそこをかなり具体化した。危険そうだという感想ではなく、実際に使える万能脱獄プロンプトを見つけた研究者に報酬を払うという設計である。

条件はかなり厳しい。対象モデルはCodex Desktop上のGPT-5.5に限定される。しかも勝利条件は、moderationを誘発しないクリーンなチャット1本で、バイオ安全性チャレンジの5つの質問すべてを突破するuniversal jailbreakを示すことだ。OpenAIは最初の完全成功者に$25,000を支払うとしており、部分的な成功にはより小さい報酬が用意される可能性がある。

運営方法も閉じた形で整理されている。応募開始は2026年4月23日、締切は6月22日。正式テスト期間は4月28日から7月27日までだ。OpenAIは信頼できるbio red-teamerを招待しつつ、新規応募者も審査して専用プラットフォームに乗せるとしている。プロンプト、出力、発見事項、やり取りはすべてNDAの対象になる。

重要なのは賞金額そのものより、どんな失敗を最重要視しているかだ。単発の抜け道ではなく、5問全部を通す再利用可能なプロンプトを要求している。外部研究者に攻撃を依頼しながらも、範囲、アクセス、公開手順は細かく制御した。OpenAIが最も危険な安全性の破れ方をどう定義しているかが、ここではっきり見える。

ページでは既存のSafety Bug BountyとSecurity Bug Bountyも案内している。つまり今回の施策はGPT-5.5の話題作りではなく、外部からの攻撃的テストを安全手順に組み込む流れの一部だ。次に見るべき点も明確で、$25,000を取る研究者が現れるのか、どの種の回避手法が効くのか、その学びがどれだけ速く防御へ戻るのかである。

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.