Ares論文、動的reasoning選択でLLM agentのtoken消費を最大52.7%削減

Original: Ares: Adaptive Reasoning Effort Selection for Efficient LLM Agents View original →

Read in other languages: 한국어English
LLM Mar 14, 2026 By Insights AI 1 min read 1 views Source

論文の提案

Ares: Adaptive Reasoning Effort Selection for Efficient LLM Agentsは、2026年3月9日にarXivへ投稿された研究で、thinking LLM agentの大きな課題であるinference costに正面から取り組んでいる。最近のagentは長いchain-of-thought reasoningによって高い性能を出す一方、multi-step workflowではtoken消費が急増しやすい。論文は、high / medium / lowのようなreasoning levelを全工程で固定的に使う方法は非効率だと指摘する。常にlowでは性能が落ち、常にhighでは単純な工程にまで過剰な計算を払うことになるからだ。

Aresの中心的な考え方は、reasoning effortをタスク全体で一律に決めるのではなく、各ステップごとに割り当てることにある。複雑なweb構造を探索する段階やtool-useの計画を立てる段階では高いreasoning budgetが必要だが、target URLを開くような単純な工程は低いeffortで足りる場合がある。そこで著者らはinteraction historyを見て、そのステップに必要な最小のreasoning levelを予測するlightweight routerを導入した。

学習方法と評価

論文では、各ステップが成功するのに必要な最小effortを推定するdata generation pipelineをまず構築し、そのラベルを使ってrouterをfine-tuningしたとしている。重要なのは、これが既存agentを全面的に置き換える手法ではなく、既存システムの上に載せられるplug-and-playな効率化レイヤーとして設計されている点だ。

評価には、tool-use agent向けのTAU-Bench、deep-research agent向けのBrowseComp-Plus、web agent向けのWebArenaが使われた。著者らは、fixed high-effort reasoningと比べてAresがreasoning token使用量を最大52.7%削減しつつ、task success rateの低下を最小限に抑えたと報告している。

なぜ重要か

この研究が重要なのは、agentの競争軸が単なる性能から、cost、latency、運用可能なstep数へ広がっていることを示すからだ。難しい工程だけにcomputeを集中し、簡単な工程では軽量に動かせるなら、同じ予算でより多くのworkflowを処理できるし、より長いagentタスクも現実的になる。

もちろん注意点もある。現時点ではarXiv preprintであり、peer reviewも独立再現もまだ完了していない。また結果は著者らのbenchmark設定に基づく。しかしそれでもAresは、2026年のagent研究において「どれだけ深く考えられるか」だけでなく「どれだけ効率よく考えられるか」を前面に押し出した高シグナルな更新といえる。

出典: arXiv論文

Share: Long

Related Articles

LLM Reddit 4d ago 1 min read

新しいllama.cpp変更は<code>--reasoning-budget</code>をtemplate stubではなくsampler側の実制御へ変える。LocalLLaMA threadでは、長いthink loopを削ることとanswer qualityを守ることのtradeoff、とくにlocal Qwen 3.5環境での意味が集中的に議論された。

LLM Reddit 1d ago 1 min read

r/LocalLLaMAのfield reportは、非常に具体的なlocal inference workloadをthroughput重視で調整した事例を示した。投稿者はQwen 3.5 27Bでmarkdown文書を分類しながら約2,000 tokens per secondを記録したと述べ、commentでは実務的な最適化論点が追加された。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.