NanoGPT Slowrunを巡る議論拡大、固定データ条件でのLLM学習効率に注目
Original: NanoGPT Slowrun: Language Modeling with Limited Data, Infinite Compute View original →
なぜこのHN投稿が注目されたのか
2026年3月4日(UTC)、Hacker Newsで NanoGPT Slowrun がフロントページに上がった。クロール時点のスコアは116、コメントは24件。Q Labsの提案は、FineWeb 100M tokensを固定し、computeは広く使い、wall-clock速度ではなくvalidation lossで改善を競うというものだ。
元記事: qlabs.sh/slowrun、リポジトリ: github.com/qlabs-eng/slowrun、HNスレッド: item 47251259。
技術的な主張の要点
投稿の問題設定は「将来的にはcomputeよりdataが先に制約になる可能性が高い」という点にある。そこで、token量を増やすより、固定データ条件でdata efficiencyを高める学習手法に重点を置く。公開内容では、modded-nanogpt比で初期約2.4x、その後コミュニティPR取り込みで約5.5xまで改善したと報告している。
初期の改善ポイント
- multi-epoch学習でepoch開始時のシャッフルを強化
- value embeddingにlearned projectionを導入
- activationをsquared ReLUからSwiGLUへ変更
- ensemble実験の導入
さらに、second-order optimizer、natural gradient、curriculum learning、diffusion model、標準的なgradient descent以外の探索も候補として挙げられている。
HNコメントでの主な論点
議論では、limited data / high compute系の先行研究との関係、baseline設定の妥当性、小規模corpusの反復学習における過学習やmemorizationのリスクが中心だった。一方で、速度最適化では検証しにくい高コスト手法を試せる点を、このベンチマークの価値として評価する声もあった。
LLM開発への示唆
現時点では限定的なベンチマークだが、data bottleneckを前提にした手法探索を公開で回す枠組みとして実務的な意味がある。より広いデータセットとモデル規模で同様の傾向が再現されれば、従来のscale-up戦略を補完する有効な開発ラインになり得る。
Related Articles
DeepMindの新しいDiLoCo変種は、遅いlearner一つが事前学習全体を止める問題を狙う。論文要旨は、数百万チップ規模の障害シミュレーション環境でも全体停止ゼロと競争力のある性能を両立したと打ち出した。
遠隔データセンターをまたぐ学習は、同期コストと障害の連鎖で急に重くなる。DeepMindはDecoupled DiLoCoによって、8データセンター構成で必要帯域を198 Gbpsから0.84 Gbpsまで下げつつ、平均ML精度64.1%を維持したとしている。
LocalLLaMAが反応したのは、大きなMoE modelを限られたVRAMで動かす時の痛点を現実的に突いていたからだ。投稿者はQwen3.5-122B-A10Bで、最近routeされたexpertを追跡してhotなものだけVRAM cacheに置くllama.cpp forkを試し、同程度の22GB台VRAM使用量でlayer-based offloadよりtoken generationが26.8%速いと共有した。
Comments (0)
No comments yet. Be the first to comment!