Karpathy、単一GPUのnanochat実験を自動化するautoresearchを公開
Original: Karpathy open-sources autoresearch for autonomous single-GPU nanochat experiments View original →
Karpathyが公開したもの
Andrej Karpathyは2026年3月7日、最近進めていたautoresearchを週末にそのまま試せるself-contained repositoryとして公開した。tweetによれば、このprojectはnanochat training coreを単一GPU向けに大きく絞り込み、人間はMarkdown instructionを編集し、AI agentはPython training codeを編集する構成だ。狙いは一回限りのcode generationではなく、変更提案、training、評価、再試行を1つのloopにまとめることにある。
repoの動き方
GitHubページはautoresearchを、single-GPU nanochat trainingをAI agentが自動で研究する環境として説明している。各experimentはちょうど5分に固定されており、この設計なら1時間に約12回、睡眠中に約100回のrunが可能だという。AgentはGit feature branch上でcommitを積み重ね、主観的な印象ではなくvalidation lossが改善したかどうかで変更を残す。Karpathyの主張は、人間がtraining loopを直接いじるのではなく、program.mdのようなファイルを通じて研究組織そのものをprogramするべきだという点にある。
Repositoryは意図的に小さい。Karpathyは単一GPU構成向けにtraining coreを約630 linesまで圧縮したと説明しており、その分agentが全体を読み取りやすく、変更もしやすい。READMEでは現状の実装が単一のNVIDIA GPUを前提としている一方、他platformへの対応はforkで広げられるとしている。このスコープ設定は、素早く回せる小ささと、agentが非自明なtraining systemを本当に改善できるかを試す現実性の間を狙ったものだ。
なぜ重要か
本質はnanochatそのものではなく、autonomous researchを測定可能で反復可能にしようとしている点だ。固定5分run、Gitベースのversioning、validation lossによる選別を組み合わせることで、prompt、agent、協調戦略の差を比較しやすいtestbedが生まれる。こうしたprojectが成熟すれば、研究teamの問いはagentがcodeを書けるかから、時間とともに複利で進む実験プログラムを自律運用できるかへ移っていく可能性が高い。
Sources: Karpathy X post, GitHub
Related Articles
r/LocalLLaMAが900 points超まで反応した理由はscore表ではない。local coding agentがcanvas bugとwave completion issueを見つけて直したという使用感だった。
Googleは4月21日、Deep ResearchをGemini 3.1 Proベースへ引き上げ、MCP接続とMaxモードを加えた。Web検索、アップロード済みファイル、ライセンスデータを一つの調査フローにまとめたい金融・ライフサイエンス向けの動きだ。
HNはWUPHFを単なる multi-agent デモとして受け取らなかった。各エージェントの notebook から共有 wiki へ事実を昇格させる設計が、いまの agent memory 競争ときれいに重なった。
Comments (0)
No comments yet. Be the first to comment!