OpenAI、脆弱性の検出・検証・修正を支援する Codex Security をプレビュー
Original: Find, validate, and fix vulnerabilities with Codex Security:https://t.co/2Qtod7CY03 https://t.co/nSK2JTCvqf View original →
OpenAI Developersは2026年3月29日、Xへの投稿で、チームがCodex Securityを使って脆弱性を「見つけ、検証し、修正できる」と述べた。あわせて公開されたHelp Center記事では、コード中の脆弱性を特定し、それが実際の問題かを確認し、修正まで支援するresearch previewと位置づけている。これはCodexが単なるcode generation toolではなく、開発とsecurity reviewの境界に入っていくことを示している。
重要なのはworkflow compressionだ。security reviewは通常、潜在的な欠陥の検出、実際に悪用可能かどうかの確認、そして開発者がmergeできる修正案の準備という三段階に分かれる。OpenAIの発表文はその三つを明示した。もし製品が狙いどおりに機能すれば、scanningからremediationまでのhandoffが短くなり、通常のsoftware delivery pipelineの中でsecurity issueをより速く処理しやすくなる。
これはagent toolingの大きな流れとも合っている。いま teams が問うているのは、LLMがコードを書けるかどうかだけではない。既存のcodebaseを読み、リスクを推論し、人間がレビューできる形で安全なpatchを提案できるかどうかだ。ただし、OpenAIの公開資料はCodex Securityをあくまでpreviewとしている。したがって、autonomous remediationが解決済みだと読むより、AI-assisted secure developmentが向かう方向を示す初期のproduct statementとして受け取るのが妥当だ。
エンジニアリング組織にとって本当に重要なのは、ツールが多くのissueを挙げることではなく、false positiveを減らし、実際のレビューに耐える修正案を出せるかどうかである。Codex Securityはその基準で評価されることになる。Xでの告知は短いが、メッセージは明確だ。OpenAIはCodexをcode generationにとどめず、vulnerability managementの流れに直接参加させようとしている。
Related Articles
OpenAIは2026年3月6日、Codex SecurityがCodex webでChatGPT Pro、Enterprise、Business、Edu向けのresearch previewに入ると発表した。プロジェクト固有のthreat model、文脈に即した検証、patch提案を組み合わせるapplication security agentで、ベータでは120万超のcommitを走査したという。
OpenAIは、Codex Securityが意図的にSAST reportを出発点にしていないと説明した。実際の脆弱性は単純なdataflowよりもvalidation orderやcanonicalizationなどのbehavior破綻から現れることが多いため、repository behaviorを直接検証する設計を重視するという。
Anthropicは2026年3月30日、Claude Codeでcomputer useがresearch previewとして利用可能になったと発表した。Claude Codeのドキュメントによれば、この機能はmacOS上でClaudeがCLIからアプリを開き、UIをクリックし、画面を確認できるようにし、native appのテスト、visual debugging、GUI専用ツールの操作を想定している。
Comments (0)
No comments yet. Be the first to comment!