Hacker News、transformer内部でprogram executionを行うという Percepta の主張に注目
Original: Executing programs inside transformers with exponentially faster inference View original →
Hacker Newsで目を引いたAI系リンクの一つが、Perceptaが2026年3月11日に公開した Can LLMs Be Computers? だった。公開ページは非常に短いが、主張は強い。teamは transformer の内部に computer を構築し、arbitrary C program を数百万 step 実行でき、さらに 2D attention head によって inference を指数的に高速化できるとしている。teaserに近い公開内容にもかかわらずHNが大きく反応したのは、好奇心を強く刺激すると同時に、より厳しい証拠を求めたくなる種類の主張だからだ。
この主張が重要なのは、現在のLLM systemがなお外部に置いている境界に触れているからだ。今日の多くのagent systemは、codeやtool callを生成したあと、実行自体は別のruntimeに委ねる。Perceptaはそれを別の形でframingしている。公開説明に従えば、executionそのものを transformer の外へ出すのではなく、model内部の計算に取り込もうとしている。これは単なるtool useよりはるかに強い話で、modelが外部softwareを呼ぶ planner ではなく、計算 substrate そのものになり得ることを示唆する。
HNの読者はすぐに、この発想を二つの長い研究テーマに結びつけた。一つは interpretability だ。modelの挙動の一部がより program-like、あるいは pseudo-symbolic に表現できるなら、完全に不透明な end-to-end heuristic より検査しやすくなる可能性がある。もう一つは reasoning efficiency で、数人のコメントでは next-token system が現在の tool-augmented stack よりずっと直接的に structured computation を実行できるかもしれないという読みが示された。reinforcement learning や強い planning loop と組み合わせたいという声もあった。
ただし反応は熱狂だけではなかった。複数の読者は、公開文が full explanation というより teaser に見えるとし、具体的な benchmark、実例、そして speedup が何を意味するのかをもっと明確に示してほしいと求めた。発想は面白いが、公開されている情報だけでは評価しにくいという指摘もあった。これは妥当な反応だ。これほど大きな研究主張では、novelty と同じくらい clarity と measurement が重要になる。
結局このHNスレッドは verdict というより marker に近い。Percepta は、transformer が単なる sequence predictor ではなく、特定の computation を内部で効率よく実行する executor になり得るという high-upside な research direction を提示した。これが本当に architectural shift へ進むかどうかは、鋭いスローガンではなく、再現可能な task、より明確な説明、そして研究コミュニティが試せる benchmark が続くかにかかっている。原文: Percepta. コミュニティ議論: Hacker News.
Related Articles
Hacker Newsでは、KV cacheを抽象的なarchitecture用語ではなくGPU memoryコストとして説明するFuture Shockの記事が再び共有されている。GPT-2からLlama 3、DeepSeek V3、Gemma 3、Mamba系まで、memory設計の変化を一つの流れとして見せる内容だ。
27BモデルがSonnet 4.6に並んだという話でLocalLLaMAは沸いたが、議論はすぐベンチ最適化と実運用条件の確認に移った。
LocalLLaMAはこれを単なるベンチ画像として流さなかった。単一のRTX 3090でQwen3.6-27Bの処理量を平均1.98倍まで押し上げ、再学習なしで長文脈も支えるという主張がスレッドの熱源になっている。
Comments (0)
No comments yet. Be the first to comment!