Karpathy:「Claws」はLLMエージェントの上の新しいレイヤー
Original: Claws are now a new layer on top of LLM agents View original →
Karpathyが新しいAIスタックレイヤーを命名:「Claws」
Andrej KarpathyはMac Miniを購入し、新世代のAIエージェントシステムを試しています。X(Twitter)でのミニエッセイの中で、Simon Willisonが「定着するだろう」と分析する新用語「Claws」を紹介しました。
Clawsとは何か
Karpathyによると、Clawsはちょうどbase LLMの上にLLMエージェントが新しいレイヤーを形成したように、LLMエージェントの上に位置する新しいアーキテクチャレイヤーです。提供する機能:
- オーケストレーション:複数のエージェントとタスクの調整
- スケジューリング:タスクの自動キューイングと実行
- コンテキスト管理:セッションをまたいだ永続的なメモリの維持
- ツール呼び出し:外部ツールとAPIの統合
- 永続性:長期的な状態の維持
成長するエコシステム
Karpathyはすでにエコシステムが形成されつつあることに言及:NanoClaw(コアエンジン約4000行)、nanobot、zeroclaw、ironclaw、picoclaw。非公式絵文字は🦞です。
Simon Willisonは「Claw」がOpenClawに似たシステム全体のカテゴリを指す専門用語になりつつあると述べています。これらはパーソナルハードウェアで動作し、メッセージングプロトコルで通信します。Hacker Newsで285ポイントを獲得し、AIスタックのこの進化するレイヤーへの開発者の高い関心を示しています。
Related Articles
r/LocalLLaMAで話題のkarpathy/autoresearchは、agentが1つの training file を編集し、5分実験を繰り返しながら val_bpb 改善を狙う小さな open-source 研究ループだ。
Andrej Karpathyが、縮小版nanochat training loopをAI agentがovernightで反復実験できるautoresearch repoを公開した。固定5分run、Git branch、validation lossベースの選別を組み合わせ、agent研究をclosed-loop workflowに変える試みだ。
r/LocalLLaMAで注目を集めた投稿は、llama-swapを使ってローカルLLMの多モデル運用を整理した具体例を共有。単一バイナリ、YAML設定、systemd運用、パラメータフィルタが実務上の利点として語られた。
Comments (0)
No comments yet. Be the first to comment!