Together AI、tool calling・reasoning・VLM fine-tuning拡張 大規模MoE学習を高速化
Original: Together Fine-tuning now supports tool calling, reasoning, and vision-language model fine-tuning. Train models up to 1T parameters with up to 6x higher throughput on MoE architectures. View original →
XでTogether AIが発表した内容
2026年3月19日、Together AIは自社のFine-tuningサービスがtool calling、reasoning、vision-language model学習に対応したと発表した。さらにMoEアーキテクチャで最大6倍高いthroughputを実現し、最大1T parameters級モデルまで視野に入れると打ち出した。これは単なる機能追加ではなく、agentとmultimodal workflow向けのpost-training基盤を広げる更新といえる。
公式ブログが補うポイント
Together AIのブログは、fine-tuningで現場が苦労しやすい箇所を具体的に挙げている。tool callがschemaと一致しない、長い対話でreasoning品質が落ちる、domain-specificな画像をうまく扱えない、といった問題だ。新サービスはこれに対して、OpenAI-compatible schemaによるtool-call学習、thinking tracesを使うreasoning学習、画像とテキストを混在させるVLM fine-tuningを提供する。
- データセットは最大100GBまで対応すると説明している。
- 発表文は1T級までの対応を強調しつつ、本文では100B+ parameter modelsをより効率的に扱えるようスタックを強化したと述べている。
- 新たな対応モデル例としてQwen 3.5系、Kimi K2.5、Kimi K2、GLM-4.7、GLM-4.6などを挙げている。
- 学習前のjob cost estimateと、学習中のETA表示も追加された。
なぜ重要か
企業のfine-tuning需要は、モデルの文体調整だけでなく、agentに安定してツールを呼ばせること、長いworkflowでもreasoningを保たせること、業務特化の画像入力に適応させることへ移っている。Together AIの今回の更新は、その3点を一つのmanaged training serviceにまとめようとする動きだ。
また、機能面だけでなくthroughput改善も重要だ。Together AIは、更新後の学習スタックで全モデルが最低2倍、大きなモデルでは6倍超の改善を得たと説明している。これが実運用でも維持されるなら、意味するのは単に学習時間短縮ではない。実験サイクルが短くなり、post-trainingが一部の専門チームだけの作業ではなく、より広い開発チームの継続運用手段になるということだ。市場の競争軸が、モデル提供だけでなく、production向けにどれだけ速く形を整えられるかへ移っていることを示す更新でもある。
Related Articles
r/MachineLearning の project post が、Apple の MLX stack を Unsloth 互換に近い API で包む mlx-tune を紹介した。Apple Silicon Mac 上で SFT、DPO、GRPO、LoRA、vision-language fine-tuning を試したい開発者向けの実用的な bridge だ。
r/LocalLLaMAで高い反応を集めた投稿は、Unsloth Studioを train、run、export を一体化した beta の open-source web UI として紹介した。Redditでは GGUF ecosystem における LM Studio の競合候補として語られた一方、上位コメントでは advanced user は依然として vLLM や直接 llama.cpp を使うという反論も出ていた。
OpenAIは2026年2月20日、First Proofの研究級数学問題10問すべてに対するproof attemptを公開した。会社はexpert feedbackの後、少なくとも5件は正しい可能性が高いと見ている一方、いくつかは審査中で、problem 2の試みは誤りだと判断した。
Comments (0)
No comments yet. Be the first to comment!