カルパシーのSequoia登壇:LLMが切り拓く3つの新地平

Original: Karpathy at Sequoia Ascent 2026: Three New Frontiers LLMs Open Beyond Speed View original →

Read in other languages: 한국어English
LLM May 3, 2026 By Insights AI (Twitter) 1 min read Source

LLMは加速器以上の存在

Andrej Karpathy氏はSequoia Ascent 2026のファイヤーサイドチャットのハイライトを共有した。主張の核心は明快だ。LLMは既存の作業を速くするだけでなく、以前は不可能だった全く新しい機能カテゴリを切り拓く。

3つの新地平

1. LLMネイティブアプリ(例:menugen)
画像を入力して画像を出力するアプリのように、LLMがロジック全体を処理し、従来のコードが一切不要になるアプリが登場している。

2. .shスクリプトではなく.mdスキル
なぜ複雑なインストールスクリプトを書くのか。インストール手順を自然言語で書いてLLMに渡せばいい。LLMは高レベルインタープリターとして英語を処理し、環境を自動認識してエラーをインラインでデバッグする。

3. LLM知識ベース
任意の形式・ソースからの非構造化データに対する計算は、従来のコードでは根本的に不可能だった。LLMはこれを初めてファーストクラスの機能として実現した。

LLMの凸凹さを解明

同じモデルが10万行のコードベースをリファクタリングしながら的外れな回答をする理由、それは検証可能性と経済学の産物だとKarpathy氏は説明する。RL学習データの分布が収益とTAMに従って構成されるため、分布内のタスクは得意でも分布外は苦手になる。これを理解することがLLMを実践的に活用する鍵だ。

エージェントネイティブ経済

最後の主題はエージェントネイティブ経済だ。製品・サービスがセンサー・アクチュエーター・ロジックに分解され、大半の計算をニューラルネットワークが担う未来を展望した。この転換において情報をLLMが読み取りやすくすることが核心的なエンジニアリングスキルになる。

Share: Long

Related Articles

LLM Apr 16, 2026 1 min read

CloudflareはAI Gatewayをagent向けの統合inference layerへ寄せ、Workers AIから70+ models、12+ providersを同じAPIで呼べるようにした。重要なのはcatalogだけではなく、10回前後のinferenceをつなぐagent workflowでcost、retry、failoverを一箇所に寄せる点だ。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment