Together AI、tool calling・reasoning・VLM fine-tuning拡張 大規模MoE学習を高速化

Original: Together Fine-tuning now supports tool calling, reasoning, and vision-language model fine-tuning. Train models up to 1T parameters with up to 6x higher throughput on MoE architectures. View original →

Read in other languages: 한국어English
LLM Mar 22, 2026 By Insights AI 1 min read Source

XでTogether AIが発表した内容

2026年3月19日、Together AIは自社のFine-tuningサービスがtool callingreasoningvision-language model学習に対応したと発表した。さらにMoEアーキテクチャで最大6倍高いthroughputを実現し、最大1T parameters級モデルまで視野に入れると打ち出した。これは単なる機能追加ではなく、agentとmultimodal workflow向けのpost-training基盤を広げる更新といえる。

公式ブログが補うポイント

Together AIのブログは、fine-tuningで現場が苦労しやすい箇所を具体的に挙げている。tool callがschemaと一致しない、長い対話でreasoning品質が落ちる、domain-specificな画像をうまく扱えない、といった問題だ。新サービスはこれに対して、OpenAI-compatible schemaによるtool-call学習、thinking tracesを使うreasoning学習、画像とテキストを混在させるVLM fine-tuningを提供する。

  • データセットは最大100GBまで対応すると説明している。
  • 発表文は1T級までの対応を強調しつつ、本文では100B+ parameter modelsをより効率的に扱えるようスタックを強化したと述べている。
  • 新たな対応モデル例としてQwen 3.5系、Kimi K2.5、Kimi K2、GLM-4.7GLM-4.6などを挙げている。
  • 学習前のjob cost estimateと、学習中のETA表示も追加された。

なぜ重要か

企業のfine-tuning需要は、モデルの文体調整だけでなく、agentに安定してツールを呼ばせること、長いworkflowでもreasoningを保たせること、業務特化の画像入力に適応させることへ移っている。Together AIの今回の更新は、その3点を一つのmanaged training serviceにまとめようとする動きだ。

また、機能面だけでなくthroughput改善も重要だ。Together AIは、更新後の学習スタックで全モデルが最低2倍、大きなモデルでは6倍超の改善を得たと説明している。これが実運用でも維持されるなら、意味するのは単に学習時間短縮ではない。実験サイクルが短くなり、post-trainingが一部の専門チームだけの作業ではなく、より広い開発チームの継続運用手段になるということだ。市場の競争軸が、モデル提供だけでなく、production向けにどれだけ速く形を整えられるかへ移っていることを示す更新でもある。

ソース: Together AIのX投稿 · Together AI fine-tuning更新記事

Share: Long

Related Articles

LLM Reddit 4d ago 1 min read

r/LocalLLaMAで高い反応を集めた投稿は、Unsloth Studioを train、run、export を一体化した beta の open-source web UI として紹介した。Redditでは GGUF ecosystem における LM Studio の競合候補として語られた一方、上位コメントでは advanced user は依然として vLLM や直接 llama.cpp を使うという反論も出ていた。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.