Together AI, tool calling·reasoning·VLM fine-tuning 확대… 대형 MoE 학습 처리량 6배 향상

Original: Together Fine-tuning now supports tool calling, reasoning, and vision-language model fine-tuning. Train models up to 1T parameters with up to 6x higher throughput on MoE architectures. View original →

Read in other languages: English日本語
LLM Mar 22, 2026 By Insights AI 1 min read Source

X에서 Together AI가 발표한 내용

2026년 3월 19일 Together AI는 자사 Fine-tuning 서비스가 이제 tool calling, reasoning, vision-language model 학습을 지원한다고 발표했다. 또한 MoE 아키텍처에서 최대 6배 높은 처리량을 제공하고, 최대 1T parameters 수준의 모델까지 겨냥한다고 강조했다. 이는 단순히 학습 옵션 몇 개를 추가한 수준이 아니라, agent와 multimodal workflow에 맞춘 post-training 파이프라인 확장으로 읽힌다.

공식 블로그가 설명한 업데이트 범위

Together AI의 발표 글은 fine-tuning이 실패하기 쉬운 지점을 꽤 명확하게 짚는다. tool call이 schema와 맞지 않거나, reasoning 품질이 긴 상호작용에서 무너지거나, domain-specific visual data를 모델이 제대로 읽지 못하는 문제가 대표적이라는 설명이다. 새 서비스는 이 지점을 겨냥해 OpenAI-compatible schema 기반 tool call 학습, thinking tokens를 이용한 reasoning 학습, base64 이미지 입력을 포함하는 VLM fine-tuning을 기본 경로로 제공한다.

  • 서비스는 최대 100GB 규모 데이터셋을 지원한다고 밝힌다.
  • large-model 항목에서는 1T급 모델 지원 방향을 제시하면서, 본문에서는 100B+ parameter models를 더 효율적으로 처리하도록 스택을 업그레이드했다고 설명한다.
  • 지원 모델 예시로 Qwen 3.5 계열, Kimi K2.5, Kimi K2, GLM-4.7, GLM-4.6 등을 나열한다.
  • 학습 전 job cost estimation, 학습 중 ETA도 새로 제공해 실험 계획을 세우기 쉽게 했다고 적고 있다.

왜 중요한가

최근 기업의 fine-tuning 수요는 “도메인 데이터로 조금 더 맞춘다”는 수준을 넘어, agent가 실제로 도구를 안정적으로 호출하고 긴 추론 체인을 유지하며, 이미지까지 포함한 입력을 업무 맥락에 맞게 이해하게 만드는 방향으로 이동하고 있다. Together AI가 내세운 업데이트는 სწორედ 이 세 가지를 하나의 상용 post-training 서비스 안에 묶으려는 시도다.

또 하나 중요한 부분은 throughput 개선이다. Together AI는 MoE 학습 최적화를 통해 모든 모델이 최소 2배, 큰 모델은 6배 이상 향상됐다고 설명한다. 학습 속도가 빨라지면 실험 반복 주기가 짧아지고, fine-tuning이 일부 대기업의 특권이 아니라 더 넓은 팀의 운영 수단이 될 수 있다. 결국 이번 발표는 모델 서빙 경쟁 다음 단계가 “누가 post-training을 더 빠르고 예측 가능하게 만들 수 있느냐”로 옮겨가고 있음을 보여준다.

출처: Together AI X 게시물 · Together AI fine-tuning 업데이트

Share: Long

Related Articles

LLM Reddit 4d ago 2 min read

r/LocalLLaMA에서 높은 반응을 얻은 글은 Unsloth Studio를 train, run, export를 한 번에 다루는 beta 오픈소스 web UI로 소개했다. Reddit에서는 GGUF 생태계의 LM Studio 경쟁자 가능성이 거론됐지만, 상위 댓글에서는 고급 사용자가 여전히 vLLM이나 직접 llama.cpp를 선호한다는 반론도 나왔다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.