Mistral, Apache 2.0 기반 멀티모달 오픈 모델군 Mistral 3 공개

Original: Mistral 3 View original →

Read in other languages: English日本語
LLM Mar 8, 2026 By Insights AI 1 min read 3 views Source

Mistral은 March 6, 2026 새로운 주력 오픈 모델 계열인 Mistral 3를 발표했다. 이번 출시는 Apache 2.0 라이선스의 14B, 8B, 3B dense 모델과 함께, 더 큰 수요를 겨냥한 Mistral Large 3까지 포함한다. 회사에 따르면 Mistral Large 3는 41B active parameters와 675B total parameters를 갖춘 모델이다.

Mistral은 Mistral 3를 multilingual, multimodal family로 소개하며, 기존 checkpoint를 덧대는 방식이 아니라 from scratch로 학습했다고 설명했다. 이는 API 전용 폐쇄형 모델 대신, 라이선스가 명확하고 직접 배포 가능한 open alternative를 원하는 조직을 겨냥한 포지셔닝으로 읽힌다. Mistral은 이번 모델이 현재 LMArena에서 open-source non-reasoning 부문 2위에 올라 있다고도 밝혔다.

출시 포인트

  • Mistral 3 14B, 8B, 3B 모델은 Apache 2.0으로 제공된다.
  • 회사는 Blackwell NVL72용 optimized checkpoint와 vLLM 기반 single 8xA100 또는 8xH100 node용 배포 경로를 제시했다.
  • Mistral Large 3는 41B active, 675B total parameters로 설명된다.
  • 로드맵 측면에서는 Mistral Medium 3.1, Mistral Small 3.2, Ministral 3까지 이어지는 family 전략을 함께 제시했다.

운영 관점에서 중요한 점은 많은 팀이 가장 큰 모델보다도, 라이선스가 명확하고 자신들이 통제하는 하드웨어에서 돌릴 수 있으며 multimodal workload에 맞게 튜닝 가능한 모델을 원한다는 사실이다. Mistral은 3B부터 14B까지 dense size를 제공하고 더 큰 companion model까지 붙이면서 embedded deployment와 server-side deployment를 동시에 겨냥하고 있다.

오픈 모델 시장에서 이번 발표는 단순 benchmark 경쟁 이상의 의미를 가진다. Mistral은 모델 수치만이 아니라 licensing, hardware guidance, product family 구성을 함께 내놓으면서 open multimodal inference를 실제 운영 선택지로 만들려 하고 있다.

Share:

Related Articles

LLM Reddit 4d ago 2 min read

LocalLLaMA에서 크게 주목받은 Sarvam AI의 발표는 Apache 2.0 기반의 reasoning model인 Sarvam 30B와 Sarvam 105B를 공개한다. 회사는 두 모델이 India에서 scratch부터 학습됐고, Mixture-of-Experts 구조를 바탕으로 reasoning, coding, agentic workflow, Indian-language 성능을 겨냥했다고 설명한다.

LLM sources.twitter 1d ago 1 min read

NVIDIA AI Developer는 2026년 3월 11일 Nemotron 3 Super를 공개하며, 12B active parameters를 사용하는 오픈 120B-parameter hybrid MoE 모델과 native 1M-token context를 강조했다. NVIDIA는 이 모델이 이전 Nemotron Super 대비 최대 5배 높은 throughput으로 agentic workload를 겨냥한다고 설명했다.

LLM sources.twitter 1d ago 1 min read

Microsoft는 Fireworks AI가 Microsoft Foundry에 들어오면서 Azure에서 high-performance, low-latency open model inference를 제공한다고 밝혔다. day-zero access, custom model 반입, enterprise control을 한곳에서 제공하는 것이 핵심 메시지다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.