Karpathy、単一GPUのnanochat実験を自動化するautoresearchを公開

Original: Karpathy open-sources autoresearch for autonomous single-GPU nanochat experiments View original →

Read in other languages: 한국어English
LLM Mar 9, 2026 By Insights AI 1 min read Source
Karpathy、単一GPUのnanochat実験を自動化するautoresearchを公開

Karpathyが公開したもの

Andrej Karpathyは2026年3月7日、最近進めていたautoresearchを週末にそのまま試せるself-contained repositoryとして公開した。tweetによれば、このprojectはnanochat training coreを単一GPU向けに大きく絞り込み、人間はMarkdown instructionを編集し、AI agentはPython training codeを編集する構成だ。狙いは一回限りのcode generationではなく、変更提案、training、評価、再試行を1つのloopにまとめることにある。

repoの動き方

GitHubページはautoresearchを、single-GPU nanochat trainingをAI agentが自動で研究する環境として説明している。各experimentはちょうど5分に固定されており、この設計なら1時間に約12回、睡眠中に約100回のrunが可能だという。AgentはGit feature branch上でcommitを積み重ね、主観的な印象ではなくvalidation lossが改善したかどうかで変更を残す。Karpathyの主張は、人間がtraining loopを直接いじるのではなく、program.mdのようなファイルを通じて研究組織そのものをprogramするべきだという点にある。

Repositoryは意図的に小さい。Karpathyは単一GPU構成向けにtraining coreを約630 linesまで圧縮したと説明しており、その分agentが全体を読み取りやすく、変更もしやすい。READMEでは現状の実装が単一のNVIDIA GPUを前提としている一方、他platformへの対応はforkで広げられるとしている。このスコープ設定は、素早く回せる小ささと、agentが非自明なtraining systemを本当に改善できるかを試す現実性の間を狙ったものだ。

なぜ重要か

本質はnanochatそのものではなく、autonomous researchを測定可能で反復可能にしようとしている点だ。固定5分run、Gitベースのversioning、validation lossによる選別を組み合わせることで、prompt、agent、協調戦略の差を比較しやすいtestbedが生まれる。こうしたprojectが成熟すれば、研究teamの問いはagentがcodeを書けるかから、時間とともに複利で進む実験プログラムを自律運用できるかへ移っていく可能性が高い。

Sources: Karpathy X post, GitHub

Share:

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.