Claude Platform、Sonnet・Haikuに Opus advisor を付ける advisor tool beta を提供

Original: We’re bringing the advisor strategy to the Claude Platform. Pair Opus as an advisor with Sonnet or Haiku as an executor, and get near Opus-level intelligence in your agents at a fraction of the cost. View original →

Read in other languages: 한국어English
LLM Apr 11, 2026 By Insights AI 1 min read Source

Claudeが公開したこと

2026年4月9日、Claudeは advisor strategyClaude Platform で beta 提供されると発表した。構造はシンプルだが意味は大きい。実際の task を最後まで進める executor は SonnetHaiku が担い、難しい判断が必要になった時だけ Opus が advisor として入る。Anthropicはこれによって、agent 全体を Opus で回すよりずっと低いコストで near Opus-level intelligence を得られると説明している。

重要なのは、この pattern を product 機能として提供した点だ。開発者が自前で multi-model orchestration layer を組む代わりに、Anthropic はこれを advisor_20260301 という native な server-side tool として公開した。説明によれば、executor は tool 呼び出し、結果の読み取り、user-facing output の生成を続け、advisor は plan、correction、stop signal だけを返す。つまり別個の planner-worker 構成を作らず、1つの Messages API request の中でこの戦略を使えるようにしたわけだ。

初期の数値が示すこと

Anthropic は blog と follow-up の X post で具体的な eval 数値も示している。中心的な主張は、Opus advisor を付けた Sonnet が Sonnet 単独比で SWE-bench Multilingual を 2.7 percentage points 改善しつつ、task 当たりコストを 11.9% 下げたというものだ。Anthropic はこの構成が BrowseCompTerminal-Bench 2.0 でも改善を示し、per-task cost は Sonnet solo より低かったとしている。

さらに Anthropic は、この構成が small model の economics も変えると主張する。公開例では、Opus advisor を使った Haiku は BrowseComp で 41.2% を記録し、Haiku 単独の 19.7% を大きく上回った。つまり、常に高価な frontier model を走らせるのではなく、複雑さが増した瞬間だけ intelligence を引き上げる考え方だ。

なぜ agent architecture にとって重要か

本質的な変化は architecture にある。ここ1年の多くの agent stack は、最も強い model を上位 orchestrator に置き、下位 worker へ委譲する形を前提にしてきた。Anthropic はそれを逆転させる。より安価な model がハンドルを握り続け、難所だけ escalation する。この違いはコスト管理だけでなく、system design そのものを変える。

  • 開発者は max_uses で advisor 呼び出し回数を制御し、token usage を分けて観測できる。
  • handoff は複数の round-trip や custom context plumbing を必要とせず、1つの API request の中で完結する。
  • frontier-level reasoning は本当に必要な場面にだけ適用される。

ここから読み取れるのは、model vendor の競争軸が raw benchmark だけでなく intelligence routing に移りつつあることだ。複数の model、tool、budget を production workflow の中でどれだけ自然に組み合わせられるかが platform の差になる。もしこの流れが続くなら、最も価値ある機能は「一番大きい model を everywhere で使うこと」ではなく、「必要な瞬間だけ正しい model を最小の orchestration overhead で呼べること」になるはずだ。

出典: Claude X投稿 · Claude eval follow-up · Claude blog post

Share: Long

Related Articles

LLM sources.twitter Mar 28, 2026 1 min read

AnthropicAIは2026年3月24日、Claudeをfrontendや長時間software engineeringでより安定して使うためのmulti-agent harness記事を取り上げた。元記事ではinitializer agent、incremental coding session、progress log、structured feature list、browser-based testingを組み合わせ、context-window driftやpremature completionを抑える方法を説明している。

LLM Mar 26, 2026 1 min read

Anthropicは2026年2月25日、Claudeのcomputer use capabilityを強化するためVerceptを買収したと発表した。Sonnet 4.6のOSWorld 72.5%という改善と、live application内で行動するagent戦略を結び付けた発表だ。

LLM Hacker News 4d ago 1 min read

約240ポイントのHacker Newsスレッドは、Anthropicが2027年からGoogleとBroadcom経由でmultiple gigawatts規模の次世代TPU capacityを確保すると発表した4月6日のニュースに注目を集めた。run-rate revenueが300億ドルを超え、年換算100万ドル超を使う企業顧客が1,000社を超えたという数字も同時に議論を呼んだ。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.