OpenAI、GPT-5.5のバイオ脱獄に懸賞金 初の万能突破へ$25,000
Original: GPT‑5.5 Bio Bug Bounty View original →
安全性の話は抽象論で終わりがちだ。OpenAIのGPT-5.5 Bio Bug Bountyはそこをかなり具体化した。危険そうだという感想ではなく、実際に使える万能脱獄プロンプトを見つけた研究者に報酬を払うという設計である。
条件はかなり厳しい。対象モデルはCodex Desktop上のGPT-5.5に限定される。しかも勝利条件は、moderationを誘発しないクリーンなチャット1本で、バイオ安全性チャレンジの5つの質問すべてを突破するuniversal jailbreakを示すことだ。OpenAIは最初の完全成功者に$25,000を支払うとしており、部分的な成功にはより小さい報酬が用意される可能性がある。
運営方法も閉じた形で整理されている。応募開始は2026年4月23日、締切は6月22日。正式テスト期間は4月28日から7月27日までだ。OpenAIは信頼できるbio red-teamerを招待しつつ、新規応募者も審査して専用プラットフォームに乗せるとしている。プロンプト、出力、発見事項、やり取りはすべてNDAの対象になる。
重要なのは賞金額そのものより、どんな失敗を最重要視しているかだ。単発の抜け道ではなく、5問全部を通す再利用可能なプロンプトを要求している。外部研究者に攻撃を依頼しながらも、範囲、アクセス、公開手順は細かく制御した。OpenAIが最も危険な安全性の破れ方をどう定義しているかが、ここではっきり見える。
ページでは既存のSafety Bug BountyとSecurity Bug Bountyも案内している。つまり今回の施策はGPT-5.5の話題作りではなく、外部からの攻撃的テストを安全手順に組み込む流れの一部だ。次に見るべき点も明確で、$25,000を取る研究者が現れるのか、どの種の回避手法が効くのか、その学びがどれだけ速く防御へ戻るのかである。
Related Articles
OpenAIはGPT-5.4-Cyberの利用範囲を、検証済みのセキュリティ研究者や大規模な防御組織へ広げた。$10 millionのAPI credit、政府評価機関への提供、tier制のアクセス管理を組み合わせた点が本筋だ。
いちばん大きい変化は、機密テキストを外へ出す前に手元で消せるようになったことだ。OpenAIの1.5BパラメータPrivacy Filterは128,000トークンを扱い、修正版PII-Masking-300kでF1 97.43%を示した。
重要なのは、OpenAIがaccuracy claimsが直接clinical consequenceへつながるregulated workflowを狙っている点だ。linked rolloutはphysician-reviewed 6,924 conversationsと99.6% safe/accurate ratingを示している。
Comments (0)
No comments yet. Be the first to comment!