AI bug huntingはtokensを増やせば勝ちなのか、HNが噛みついた
Original: AI cybersecurity is not proof of work View original →
AI cybersecurity is not proof of workがHNで議論を呼んだのは、AI hypeへの冷水だったからだけではない。2026-04-16 10:48:00 UTCに投稿されたこのessayは、score 230台と80件超のcommentsを集めた。Communityが反応したのは、「more compute wins」という直感をsecurityにそのまま持ち込めるのかという問いだった。
Antirezの主張は、hash collisionを探すproof of workとbug discoveryは同じ種類のsearchではない、という点にある。Proof of workでは十分な試行を重ねれば条件を満たすinputに近づく。一方、code analysisではLLMが異なるbranchesを探索しても、意味のあるpathが飽和すると、制約はsample count Mではなくmodel intelligence level Iになるという。
EssayはOpenBSD SACK bugを例にする。弱いmodelがvalidation不足やinteger overflowらしい箇所を指して近づいたように見えても、start window validation、integer overflow、NULLでないはずのbranchがどう組み合わさってexploitになるかまで理解したとは限らない。Bug class pattern matchingとhallucinationが、たまたま現実の問題に近づくこともあるという見方だ。
HN commentsはこの主張をそのまま受け取らず、security特有のasymmetryを持ち込んだ。Attackerは一つのexploitable issueを見つければよいが、defenderはすべてを見つけ、patchし、deployしなければならない。別のcommentでは、breadth-first searchとdepth-first searchのように、search surface次第でmore tokensとbetter modelの価値は変わると指摘された。
このthreadの価値は、AI securityのclaimを細かく分ける必要を示した点にある。Suspicious code regionを見つけること、vulnerability chainを説明すること、reliable exploitを書くこと、fix deploymentを助けることは同じではない。HNの熱量は、その区別が曖昧なままAI bug huntingが語られていることへの違和感から来ていた。
Related Articles
1247ポイント、328コメントのHacker Newsスレッドで、AISLEはscoped contextがあれば小さなopen-weight modelでもMythos級のexploit analysisの一部を再現できると主張し、コメント欄はmethodologyを巡って大きく割れた。
Microsoftは2026年4月3日、日本でAI infrastructure、cybersecurity、workforceを強化するため100億ドルを投資すると発表した。計画には国内GPU access、公民連携のsecurity partnership、2030年までに100万人超のengineers・developers育成が含まれる。
Hacker Newsで大きく読まれたAISLEの投稿は、Anthropic Mythosの発表がAI securityという領域の現実性を示した一方で、優位性が特定のmodelだけに閉じているとは言えないと論じる。適切なcode pathを切り出せば、小型のopen modelでも重要な分析をかなり再現できたという主張だ。
Comments (0)
No comments yet. Be the first to comment!