マージされたMCP PRが、agent loopとresourcesをllama.cpp WebUIに持ち込む
Original: The MCP PR for llama.cpp has been merged ! View original →
Redditスレッド: LocalLLaMA の議論
マージされたPR: llama.cpp PR #18655
今回のLocalLLaMA投稿で追う価値があるのは、llama.cpp PR #18655 がマージされたことだ。PRタイトルは “webui: Agentic Loop + MCP Client with support for Tools, Resources and Prompts” で、ポイントは Model Context Protocol の機能を外部wrapper任せにせず、llama.cpp の WebUI と server フローへ直接持ち込んだ点にある。
マージされたPRで増えたもの
- MCP server selector と server capability card。
- processing stats を伴う tool calls と agentic loop。
- prompt picker、prompt attachment、resource browser、preview、template。
--webui-mcp-proxyフラグ経由の llama-server backend CORS proxy。
このPRは機能追加だけではなく、UI改善もかなり含んでいる。code block 表示の改善、reasoning と tool-call の折りたたみ表示、attachment 周りの改良、message statistics などが一緒に入っている。つまり単に「MCP support がある」と書けるだけではなく、browser 上で prompt、file、resource を実際に扱うための usability layer まで備えた更新だ。
戦略的な意味も大きい。ローカル推論スタックが、これまで hosted product 側にあると思われていた agent tooling に近づきつつあるからだ。この流れが成熟すれば、llama.cpp ユーザーは別の orchestration 製品を前提にしなくても、ローカルモデル提供から tool-aware workflow、prompt composition、structured resource access までをつなぐ、より完成度の高い経路を持てるようになる。
Related Articles
GitHubは2026年4月1日、Agentic Workflowsが isolation、constrained outputs、comprehensive logging を中核原則として設計されていると説明した。リンク先のGitHubブログは、GitHub Actions上で coding agent をより安全に動かすため、専用container、firewalled egress、safe outputs、trust boundary logging を採用していると述べている。
Googleは4月21日、Deep ResearchをGemini 3.1 Proベースへ引き上げ、MCP接続とMaxモードを加えた。Web検索、アップロード済みファイル、ライセンスデータを一つの調査フローにまとめたい金融・ライフサイエンス向けの動きだ。
LocalLLaMAが反応したのは単なる音声デモではなかった。Qwen3-TTSをローカル実時間で動かし、llama.cppと単語単位アラインメントまで組み合わせた実装記録だった。
Comments (0)
No comments yet. Be the first to comment!