OpenAI、Codex Security研究プレビュー公開 リポジトリ保安ワークフローを自動化
Original: Codex Security now in research preview View original →
OpenAIはMarch 6, 2026にCodex Securityをresearch previewとして公開した。これはCodexのcoding agentワークフローをapplication securityへ広げ、チームがrepositoryをscanし、コード変更を確認し、threat modelを読み解き、bugを再現し、修正案まで得られるようにする製品だ。
OpenAIは、この製品が単なるstatic findingの列挙ではない点を強調している。Codex Securityはrepository contextを取り込み、問題のあるコード経路を読み、実際にbug再現を試み、そのうえで開発者が検証できるremediation guidanceを返す設計だという。OpenAIはprivate GitHub repositoryだけでなくopen source projectにも対応すると説明した。
OpenAIが示した指標
- 内部benchmarkではsecurity review noiseが84%減少したとOpenAIは述べている。
- severityの過大判定は90%以上減少したという。
- false positivesは50%以上減少したと説明している。
- 過去30日間の1.2 million commitsをscanし、792件のcriticalと10,561件のhigh-severity findingを見つけたと公表した。
発表には実際のdisclosure事例も含まれていた。OpenAIはOpenSSHやLinux kernelのmaintainerに報告されたcritical vulnerabilityの発見にCodex Securityが役立ったと述べた。これは既存scannerの結果を並べるだけでなく、発見、検証、報告、修正提案までを一連の流れとして見せようとしていることを意味する。
現時点の利用範囲は限定的だ。OpenAIによれば、ChatGPT Pro, Enterprise, Business, EduユーザーがCodex web surface経由でresearch previewを利用でき、最初の1か月はfree usageが提供される。開発組織にとっての大きな示唆は、model vendorの競争軸がcode generationからsoftware assuranceとtriage品質へ広がっている点にある。
Related Articles
OpenAIは2026年4月10日、Axios package compromise が自社の macOS app-signing GitHub Actions workflow に影響したと説明した。ユーザーデータやシステム、配布ソフトウェアの侵害証拠はないとしつつ、macOS 利用者には 2026年5月8日までに新しい certificate で署名された build への更新を求めている。
個人情報フィルタリングはAI開発の周辺機能ではなく本体になった。OpenAIの1.5BオープンウェイトPrivacy Filterは128,000トークンを端末内で処理し、補正版PII-Masking-300kでF1 97.43%を示した。
いちばん大きい変化は、機密テキストを外へ出す前に手元で消せるようになったことだ。OpenAIの1.5BパラメータPrivacy Filterは128,000トークンを扱い、修正版PII-Masking-300kでF1 97.43%を示した。
Comments (0)
No comments yet. Be the first to comment!