LLM

LLM Reddit 2d ago 1 min read

最近の r/LocalLLaMA で注目された投稿は、コミュニティがすでに 400 以上の model について約 1万件の Apple Silicon benchmark を提出したと述べている。重要なのは、散発的な体感談ではなく、M-series chip と context length ごとの傾向を比較できる shared dataset が立ち上がり始めた点だ。

LLM Reddit 2d ago 1 min read

最近の r/LocalLLaMA の benchmark 投稿は、Apple Silicon 上で MLX と llama.cpp を比べるときに単純な tok/s の数字だけでは本質を見誤ると指摘した。MLX は短い context の generation では依然として速いが、長い context の workload では prefill が全体レイテンシを支配し、体感差が大きく縮む可能性がある。

LLM Hacker News 2d ago 1 min read

2026年3月13日のHacker Newsスレッドは、Anthropicによる Claude Opus 4.6 と Sonnet 4.6 の 1M context GA 更新、特に long-context premium 廃止に注目した。今回の更新では media limit が 600 images または PDF pages まで拡大され、Claude Code の Max・Team・Enterprise にも 1M context が組み込まれた。

Karpathy、autoresearchで nanochat の Time to GPT-2 を約11%短縮したと報告
LLM 2d ago 1 min read

Andrej Karpathy は autoresearch によって nanochat の Time to GPT-2 が 2.02 hours から 1.80 hours に下がったと述べた。agent が約2日で約700件の変更を探索し、約20件の additive improvement を見つけたという説明だが、この結果は独立監査済み benchmark ではなく source claim として読む必要がある。

LLM Reddit 2d ago 1 min read

Redditのスレッドで arXiv 論文 2603.10145 が共有され、この論文は language model の output layer が単なる softmax expressivity の問題ではなく、gradient norm の 95〜99% を抑圧する optimization bottleneck だと主張している。議論は、より良い head 設計が LLM 学習効率を大きく変え得るかに集中した。

LLM Reddit 2d ago 1 min read

r/MachineLearningの高反応スレッドは、proprietary model が毎月変わり古い version が消える中で、benchmark 論文に何が残るのかを問うた。もっとも支持された見方は、ranking はすぐ古くなる一方で、dataset や failure case は長く使える eval asset になり得るというものだった。

LLM Hacker News 2d ago 1 min read

Perceptaは2026年3月11日の投稿で、transformer 内部に computer を構築し、arbitrary C program を数百万 step 実行し、2D attention head で inference を指数的に高速化できると主張した。HNの読者は刺激的な研究方向として受け止めつつも、より明確な説明、benchmark、拡張性の根拠を求めた。

© 2026 Insights. All rights reserved.