Mistral Medium 3.5: 추론·코딩·채팅 합친 128B 오픈 웨이트 — 모델 3개가 하나로

Read in other languages: English日本語
LLM May 5, 2026 By Insights AI 1 min read Source

세 모델이 하나로

Mistral AI는 2026년 4월 29일 Mistral Medium 3.5를 Modified MIT 라이선스로 공개했다. 이 모델은 지금까지 별도로 유지되던 세 가지 제품을 하나로 통합한다.

  • Mistral Medium 3.1 (일반 명령 수행)
  • Magistral (추론)
  • Devstral 2 (코딩)

이제 사용자는 단일 모델에서 설정 토글 하나로 추론 모드를 켜고 끌 수 있다.

주요 사양

  • 파라미터: 128B (밀집 모델, MoE 아님)
  • 컨텍스트 윈도우: 256K
  • 라이선스: Modified MIT
  • SWE-bench Verified: 77.6%
  • API 입력 가격: 백만 토큰당 $1.50
  • 셀프 호스팅: GPU 4개로 구동 가능

Vibe 에이전트와 함께

Mistral Medium 3.5는 클라우드 코딩 에이전트 Vibe와 함께 출시됐다. Vibe는 자율적으로 GitHub에 풀 리퀘스트를 제출한다. 개발자가 직접 코드를 완성하고 PR을 만드는 과정을 에이전트가 대신하는 구조다.

경쟁 구도 변화

128B 밀집 모델의 SWE-bench 77.6%는 동급 오픈 웨이트 중 최상위권이다. GPU 4개로 자체 서버에서 구동 가능한 사이즈라는 점도 엔터프라이즈 도입 장벽을 낮춘다.

출처: Mistral AI

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment