カルパシーのSequoia登壇:LLMが切り拓く3つの新地平
Original: Karpathy at Sequoia Ascent 2026: Three New Frontiers LLMs Open Beyond Speed View original →
LLMは加速器以上の存在
Andrej Karpathy氏はSequoia Ascent 2026のファイヤーサイドチャットのハイライトを共有した。主張の核心は明快だ。LLMは既存の作業を速くするだけでなく、以前は不可能だった全く新しい機能カテゴリを切り拓く。
3つの新地平
1. LLMネイティブアプリ(例:menugen)
画像を入力して画像を出力するアプリのように、LLMがロジック全体を処理し、従来のコードが一切不要になるアプリが登場している。
2. .shスクリプトではなく.mdスキル
なぜ複雑なインストールスクリプトを書くのか。インストール手順を自然言語で書いてLLMに渡せばいい。LLMは高レベルインタープリターとして英語を処理し、環境を自動認識してエラーをインラインでデバッグする。
3. LLM知識ベース
任意の形式・ソースからの非構造化データに対する計算は、従来のコードでは根本的に不可能だった。LLMはこれを初めてファーストクラスの機能として実現した。
LLMの凸凹さを解明
同じモデルが10万行のコードベースをリファクタリングしながら的外れな回答をする理由、それは検証可能性と経済学の産物だとKarpathy氏は説明する。RL学習データの分布が収益とTAMに従って構成されるため、分布内のタスクは得意でも分布外は苦手になる。これを理解することがLLMを実践的に活用する鍵だ。
エージェントネイティブ経済
最後の主題はエージェントネイティブ経済だ。製品・サービスがセンサー・アクチュエーター・ロジックに分解され、大半の計算をニューラルネットワークが担う未来を展望した。この転換において情報をLLMが読み取りやすくすることが核心的なエンジニアリングスキルになる。
Related Articles
r/LocalLLaMAでMiniMax M2.7が一気に伸びた理由は、Hugging Face公開が単なるchat modelではなく、tool use、Agent Teams、deployment guideまで含むagent systemとして提示されたからだ。初期の関心はbenchmarkの数字だけでなく、実運用を意識したpackagingにも向いている。
CloudflareはAI Gatewayをagent向けの統合inference layerへ寄せ、Workers AIから70+ models、12+ providersを同じAPIで呼べるようにした。重要なのはcatalogだけではなく、10回前後のinferenceをつなぐagent workflowでcost、retry、failoverを一箇所に寄せる点だ。
LocalLLaMA のスレッドが Gemma 4 31B の予想外に強い FoodTruck Bench 成績を取り上げた。議論はすぐに長期計画能力と benchmark の信頼性へ広がった。
Comments (0)
No comments yet. Be the first to comment!