Karpathy、単一GPUのnanochat実験を自動化するautoresearchを公開
Original: Karpathy open-sources autoresearch for autonomous single-GPU nanochat experiments View original →
Karpathyが公開したもの
Andrej Karpathyは2026年3月7日、最近進めていたautoresearchを週末にそのまま試せるself-contained repositoryとして公開した。tweetによれば、このprojectはnanochat training coreを単一GPU向けに大きく絞り込み、人間はMarkdown instructionを編集し、AI agentはPython training codeを編集する構成だ。狙いは一回限りのcode generationではなく、変更提案、training、評価、再試行を1つのloopにまとめることにある。
repoの動き方
GitHubページはautoresearchを、single-GPU nanochat trainingをAI agentが自動で研究する環境として説明している。各experimentはちょうど5分に固定されており、この設計なら1時間に約12回、睡眠中に約100回のrunが可能だという。AgentはGit feature branch上でcommitを積み重ね、主観的な印象ではなくvalidation lossが改善したかどうかで変更を残す。Karpathyの主張は、人間がtraining loopを直接いじるのではなく、program.mdのようなファイルを通じて研究組織そのものをprogramするべきだという点にある。
Repositoryは意図的に小さい。Karpathyは単一GPU構成向けにtraining coreを約630 linesまで圧縮したと説明しており、その分agentが全体を読み取りやすく、変更もしやすい。READMEでは現状の実装が単一のNVIDIA GPUを前提としている一方、他platformへの対応はforkで広げられるとしている。このスコープ設定は、素早く回せる小ささと、agentが非自明なtraining systemを本当に改善できるかを試す現実性の間を狙ったものだ。
なぜ重要か
本質はnanochatそのものではなく、autonomous researchを測定可能で反復可能にしようとしている点だ。固定5分run、Gitベースのversioning、validation lossによる選別を組み合わせることで、prompt、agent、協調戦略の差を比較しやすいtestbedが生まれる。こうしたprojectが成熟すれば、研究teamの問いはagentがcodeを書けるかから、時間とともに複利で進む実験プログラムを自律運用できるかへ移っていく可能性が高い。
Sources: Karpathy X post, GitHub
Related Articles
Hacker Newsで注目されたAndrej KarpathyのAutoresearchは、agentが1つの学習ファイルを編集し、5分固定の実験を繰り返して`val_bpb`が改善した変更だけを残す最小構成の研究自動化環境だ。
r/LocalLLaMAで注目を集めた投稿は、llama-swapを使ってローカルLLMの多モデル運用を整理した具体例を共有。単一バイナリ、YAML設定、systemd運用、パラメータフィルタが実務上の利点として語られた。
Microsoft Researchは2026年2月26日にCORPGENを発表した。実際のオフィス業務を模した高負荷マルチタスク条件で、ベースライン比最大3.5倍の完了率を報告している。
Comments (0)
No comments yet. Be the first to comment!