복잡도 이론으로 AGI 불가능 증명? 논문 오류 공식 확인
Original: Human-level performance via ML was *not* proven impossible with complexity theory View original →
한때 화제를 모은 '불가능 증명'
2024년, Van Rooij 등이 Computational Brain & Behavior 저널에 발표한 논문은 복잡도 이론을 이용해 머신러닝으로는 인간 수준의 분류기(human-level classifier)를 학습하는 것이 불가능하다고 주장했다. NP-난해 문제를 해당 학습 문제로 환원하는 방식으로 구성된 이 증명은 'Ingenia 정리'라는 이름으로 AI 커뮤니티에서 상당한 주목을 받았다.
같은 저널에서 반박
그러나 이 증명이 복구 불가능하게 틀렸음을 보여주는 반박 논문이 이번에 동일 저널 Computational Brain & Behavior에 게재됐다. 저자는 원 증명의 환원 구조에 근본적인 오류가 있음을 체계적으로 제시했다.
의미: AGI 논쟁에서 무엇이 달라졌나
이 논문의 반박은 머신러닝이 인간 수준 성능에 도달할 수 없다는 이론적 근거 중 하나가 무효화됐음을 의미한다. AGI의 실현 가능성은 여전히 열려 있는 연구 문제이지만, 복잡도 이론이 그 장벽이라는 주장은 이제 더 이상 유효하지 않다.
r/MachineLearning의 반응
r/MachineLearning에서 133점을 기록한 이 게시물은 학계와 커뮤니티 모두에서 관심을 끌었다. 해당 반박 논문은 Springer에서 공개 접근 가능하다.
Related Articles
Anthropic이 독립 연구기관 The Anthropic Institute(TAI)의 연구 아젠다를 공개했다. 경제 파급, 위협과 복원력, 현장의 AI 시스템, AI 주도 R&D의 4대 분야를 통해 AI가 사회·경제·안보에 미치는 영향을 추적한다.
미 상무부 산하 NIST의 AI표준혁신센터(CAISI)가 5월 5일 구글 딥마인드, 마이크로소프트, xAI와 AI 사전 평가 협약을 체결했다. 세 기업은 주요 AI 모델을 공개 전에 정부 평가를 위해 제공하게 된다.
DeepMind 직원이 AGI 도달을 주장하는 비공개 AI 기업들을 정면 비판했다. 일반인 투자를 허용하거나, 그렇지 않으면 억만장자만 부유하게 만든다는 점을 인정하라는 주장이다.
Comments (0)
No comments yet. Be the first to comment!