Autoresearch、single-GPUのnanochatをovernight agent研究ループに変える
Original: Autoresearch: Agents researching on single-GPU nanochat training automatically View original →
Hacker Newsで話題になったAutoresearchは、「AIが研究する」という曖昧な話を、実際に読めて回せる小さなloopへ落とし込んだrepoだ。Andrej Karpathyはこのprojectを、single-GPUのnanochat training setupにagentを乗せ、コードを変更し、5分だけ学習し、結果が良くなったかを判定して採用または破棄する仕組みとして説明している。主張は大げさではなく、overnightで実験を回し、朝に実験ログと改善候補を受け取るという具体的なものだ。
repoの構成も意図的に小さい。READMEによれば、固定定数や一度だけのdata prepはprepare.py、agentが編集するのはtrain.py、人間が調整する指示文はprogram.mdだ。この分離が重要で、人間は研究方針とcontextを定義し、agentは実際の学習コード1ファイルだけを触る。範囲が狭いため、変更差分はレビューしやすく、agentの成果を誇張されたdemoではなくコードとして監査できる。
このloopが実用的な理由
- distributed infrastructureではなくsingle NVIDIA GPUで動く
- 各experimentはstartupを除いて5分固定
- 評価指標は
val_bpbで、低いほど良い - agentは
train.pyだけを編集する - 人間は
program.mdで研究組織のルールを調整する
この制約こそが実価値だ。時間予算が固定なので、architecture, optimizer, batch sizeを変えてもexperiment同士を比較しやすい。1ファイルだけを変更対象にすることで、混乱を抑えつつauditableなagent workflowを維持できる。つまりAutoresearchは、cluster規模の曖昧な自律研究ではなく、1 GPU, 1 metric, 1 overnight loopという理解可能な単位にagentic experimentationを圧縮している。
READMEは限界も率直に書いている。現状はsingle NVIDIA GPU前提で、CPUやMPSなど他platformへの広い対応は近い目標ではない。完成品のresearch platformではなくdemoに近い。しかし、それでもこのrepoが評価されるのは、壮大な未来像ではなく、誰でも読める最小構成のresearch automationを示しているからだ。agentic model researchを真面目に議論するなら、見えないswarmの物語より、こうした制約付きで再現可能なloopの方がはるかに価値がある。
Related Articles
Andrej Karpathyが、縮小版nanochat training loopをAI agentがovernightで反復実験できるautoresearch repoを公開した。固定5分run、Git branch、validation lossベースの選別を組み合わせ、agent研究をclosed-loop workflowに変える試みだ。
Microsoft Researchは2026年2月26日にCORPGENを発表した。実際のオフィス業務を模した高負荷マルチタスク条件で、ベースライン比最大3.5倍の完了率を報告している。
NVIDIA AI Developerは2026年3月11日、12B active parametersを用いるオープン120B-parameter hybrid MoEモデル Nemotron 3 Super を発表した。NVIDIAはnative 1M-token contextと、前世代Nemotron Super比で最大5倍のthroughputを強調している。
Comments (0)
No comments yet. Be the first to comment!