Claude Platform, Sonnet·Haiku에 Opus 조언자를 붙이는 advisor tool beta 공개

Original: We’re bringing the advisor strategy to the Claude Platform. Pair Opus as an advisor with Sonnet or Haiku as an executor, and get near Opus-level intelligence in your agents at a fraction of the cost. View original →

Read in other languages: English日本語
LLM Apr 11, 2026 By Insights AI 2 min read Source

Claude가 공개한 내용

2026년 4월 9일, Claude는 advisor strategy가 이제 Claude Platform에서 beta로 제공된다고 발표했다. 구조는 단순하지만 의미가 크다. 실제 작업을 끝까지 수행하는 executor는 Sonnet 또는 Haiku가 맡고, 더 어려운 판단이 필요할 때만 Opus가 advisor로 개입한다. Anthropic은 이 구성이 agent 전체를 Opus로 돌리지 않고도 near Opus-level intelligence를 더 낮은 비용으로 얻는 방법이라고 설명한다.

중요한 점은 이 패턴을 제품 기능으로 굳혔다는 것이다. 개발자가 직접 multi-model orchestration layer를 짜는 대신, Anthropic은 이를 advisor_20260301이라는 native server-side tool로 제공한다. 설명에 따르면 executor는 tool 호출, 결과 읽기, 사용자 출력 생성을 계속 담당하고, advisor는 plan, correction, stop signal만 돌려준다. 즉 별도 planner-worker 구조를 만드는 대신, 하나의 Messages API request 안에서 이 패턴을 쓸 수 있게 한 셈이다.

초기 수치가 보여 주는 것

Anthropic은 blog와 후속 X post에서 구체적 eval 수치를 함께 제시했다. 핵심 주장은 Opus advisor를 붙인 Sonnet이 Sonnet 단독 대비 SWE-bench Multilingual에서 2.7 percentage points 더 높게 나오면서 task당 비용은 11.9% 덜 들었다는 것이다. Anthropic은 이 조합이 BrowseCompTerminal-Bench 2.0에서도 개선을 보였고, per-task cost는 Sonnet solo보다 낮았다고 설명한다.

이 구조는 small model economics도 바꾼다고 Anthropic은 주장한다. 공개된 예시에서 Opus advisor를 둔 Haiku는 BrowseComp에서 41.2%를 기록했고, 이는 Haiku 단독 19.7%보다 두 배 이상 높다. Anthropic은 이를 “복잡할 때만 intelligence를 올리고, 평소에는 작은 model 비용 구조를 유지하는 방식”으로 제시한다.

왜 agent architecture 관점에서 중요한가

더 중요한 변화는 architecture에 있다. 지난 1년간 많은 agent stack은 가장 강한 model을 상단 orchestrator로 두고 아래 worker에게 일을 나누는 방식을 전제로 했다. Anthropic은 이를 정반대로 뒤집는다. 더 저렴한 model이 계속 운전대를 잡고, 정말 어려운 판단에서만 escalation한다. 이건 비용 관리뿐 아니라 시스템 설계 방식도 바꾼다.

  • 개발자는 max_uses로 advisor 호출 횟수를 제한하고 token 사용량을 분리해 볼 수 있다.
  • handoff가 여러 round-trip이나 custom context plumbing 없이 한 API request 안에서 끝난다.
  • frontier reasoning은 실제로 필요한 지점에만 적용된다.

여기서 읽히는 추론은 model vendor 경쟁이 raw benchmark만이 아니라 intelligence routing으로 옮겨가고 있다는 점이다. 여러 model과 tool, budget을 production workflow 안에서 얼마나 자연스럽게 섞어 쓰게 해 주는지가 플랫폼 차별점이 되고 있다. 이 흐름이 이어지면 가장 중요한 기능은 “가장 큰 model을 항상 쓰는 것”보다 “필요한 순간에만 가장 적절한 model을 최소 orchestration overhead로 부르는 것”이 될 가능성이 크다.

출처: Claude X 게시물 · Claude eval 후속 게시물 · Claude 블로그

Share: Long

Related Articles

LLM Mar 26, 2026 1 min read

Anthropic는 2026년 2월 25일 Vercept를 인수해 Claude의 computer use capability를 강화한다고 밝혔다. 회사는 이번 거래를 Sonnet 4.6의 OSWorld 72.5% 성과와 live application 안에서 행동하는 agent 전략의 연장선으로 설명했다.

LLM sources.twitter Mar 28, 2026 2 min read

AnthropicAI는 2026년 3월 24일 Claude를 frontend와 장기 실행 software engineering 작업에 더 안정적으로 쓰기 위한 multi-agent harness 글을 다시 부각했다. 해당 Anthropic Engineering 글은 initializer agent, incremental coding session, progress log, structured feature list, browser-based testing으로 context-window drift와 premature completion을 줄이는 방법을 설명한다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.