「MLによる人間レベル達成は不可能」の証明に致命的誤り——同誌に反論論文掲載
Original: Human-level performance via ML was *not* proven impossible with complexity theory View original →
一時注目を集めた「不可能証明」
2024年、Van RooijらはComputational Brain & Behavior誌に、複雑度理論を使って機械学習では人間レベルの分類器を学習することが計算上不可能だと主張する論文を発表した。既知のNP困難問題を学習問題に帰着させる構成で、「Ingenia定理」と名付けられてAI研究コミュニティで大きな話題となった。
同じ誌上での反論
しかし今回、この証明が回復不可能なほど誤っていることを示す反論論文が、同誌Computational Brain & Behaviorに掲載された。著者は帰着構成に根本的な欠陥があることを体系的に論証した。
AGI研究への意味
この反論によって、機械学習が人間レベルの性能に到達できないという数少ない形式的な理論的根拠の一つが無効化された。AGIの実現可能性はいまも未解決の研究問題であることに変わりはないが、複雑度理論がその壁になるという主張は成立しなくなった。
反論論文はSpringerでオープンアクセスで公開されており、r/MachineLearningのコミュニティでも133票を集めて注目を集めている。
Related Articles
米国立標準技術研究所(NIST)傘下のCAISIは2026年5月5日、Google DeepMind・Microsoft・xAIとAI出荷前評価協定を締結したと発表した。OpenAI・Anthropicとの既存協定を拡張し、米国の主要フロンティアAI開発企業全体を対象とする体制が整った。
DeepMindの社員がAGIへの道を主張する民間AI企業に公に挑戦した。一般投資家にも投資機会を提供するか、そうでなければ億万長者を富ませるだけだと認めるべきだと主張している。
AnthropicはThe Anthropic Institute(TAI)の研究アジェンダを発表した。経済的波及効果、脅威と回復力、現実環境のAIシステム、AI主導のR&Dという4分野を通じて、AIが社会・経済・安全保障に与える影響を独立研究する。
Comments (0)
No comments yet. Be the first to comment!