Hacker News、transformer内部でprogram executionを行うという Percepta の主張に注目
Original: Executing programs inside transformers with exponentially faster inference View original →
Hacker Newsで目を引いたAI系リンクの一つが、Perceptaが2026年3月11日に公開した Can LLMs Be Computers? だった。公開ページは非常に短いが、主張は強い。teamは transformer の内部に computer を構築し、arbitrary C program を数百万 step 実行でき、さらに 2D attention head によって inference を指数的に高速化できるとしている。teaserに近い公開内容にもかかわらずHNが大きく反応したのは、好奇心を強く刺激すると同時に、より厳しい証拠を求めたくなる種類の主張だからだ。
この主張が重要なのは、現在のLLM systemがなお外部に置いている境界に触れているからだ。今日の多くのagent systemは、codeやtool callを生成したあと、実行自体は別のruntimeに委ねる。Perceptaはそれを別の形でframingしている。公開説明に従えば、executionそのものを transformer の外へ出すのではなく、model内部の計算に取り込もうとしている。これは単なるtool useよりはるかに強い話で、modelが外部softwareを呼ぶ planner ではなく、計算 substrate そのものになり得ることを示唆する。
HNの読者はすぐに、この発想を二つの長い研究テーマに結びつけた。一つは interpretability だ。modelの挙動の一部がより program-like、あるいは pseudo-symbolic に表現できるなら、完全に不透明な end-to-end heuristic より検査しやすくなる可能性がある。もう一つは reasoning efficiency で、数人のコメントでは next-token system が現在の tool-augmented stack よりずっと直接的に structured computation を実行できるかもしれないという読みが示された。reinforcement learning や強い planning loop と組み合わせたいという声もあった。
ただし反応は熱狂だけではなかった。複数の読者は、公開文が full explanation というより teaser に見えるとし、具体的な benchmark、実例、そして speedup が何を意味するのかをもっと明確に示してほしいと求めた。発想は面白いが、公開されている情報だけでは評価しにくいという指摘もあった。これは妥当な反応だ。これほど大きな研究主張では、novelty と同じくらい clarity と measurement が重要になる。
結局このHNスレッドは verdict というより marker に近い。Percepta は、transformer が単なる sequence predictor ではなく、特定の computation を内部で効率よく実行する executor になり得るという high-upside な research direction を提示した。これが本当に architectural shift へ進むかどうかは、鋭いスローガンではなく、再現可能な task、より明確な説明、そして研究コミュニティが試せる benchmark が続くかにかかっている。原文: Percepta. コミュニティ議論: Hacker News.
Related Articles
LocalLLaMAで再浮上した投稿は、Qwen2-72Bの中間7-layer blockをweight変更なしで繰り返し通し、benchmarkを押し上げたとするDavid Noel Ngの実験を取り上げた。
新しいllama.cpp変更は<code>--reasoning-budget</code>をtemplate stubではなくsampler側の実制御へ変える。LocalLLaMA threadでは、長いthink loopを削ることとanswer qualityを守ることのtradeoff、とくにlocal Qwen 3.5環境での意味が集中的に議論された。
2026年3月14日のLocalLLaMA投稿は、SM120 Blackwellワークステーション向けCUTLASS・FlashInfer修正を紹介し、Qwen3.5-397B NVFP4推論高速化とFlashInfer PR #2786を結び付けた。
Comments (0)
No comments yet. Be the first to comment!