Mistral、Apache 2.0のマルチモーダル公開モデル群Mistral 3を発表

Original: Mistral 3 View original →

Read in other languages: 한국어English
LLM Mar 8, 2026 By Insights AI 1 min read 1 views Source

MistralはMarch 6, 2026に新しい主力open model群であるMistral 3を発表した。今回のリリースにはApache 2.0ライセンスの14B, 8B, 3B dense modelに加え、より大きな需要に向けたMistral Large 3も含まれる。Mistralによれば、Mistral Large 3は41B active parametersと675B total parametersを備える。

MistralはMistral 3をmultilingualかつmultimodalなfamilyとして紹介し、既存checkpointの派生ではなくfrom scratchで学習したと説明している。これはAPI専用のclosed modelにすぐ移行したくない組織に向けて、ライセンスが明確で自前運用しやすいopen alternativeを提供する位置づけだ。発表によると、Mistral 3は現在LMArenaでopen-source non-reasoning部門2位に位置し、reasoning版も今後投入される予定だという。

主なポイント

  • Mistral 3の14B, 8B, 3BはApache 2.0で公開される。
  • Blackwell NVL72向けoptimized checkpointと、vLLM経由でsingle 8xA100または8xH100 nodeに載せる展開経路が示された。
  • Mistral Large 3は41B active, 675B total parametersの大型modelとして説明されている。
  • MistralはMistral Medium 3.1, Mistral Small 3.2, Ministral 3へ続くfamily戦略もあわせて提示した。

運用面で重要なのは、多くのチームが最大modelそのものよりも、ライセンスが明確で、自分たちが管理するhardwareで動かせて、multimodal workload向けに調整しやすいmodelを必要としている点だ。Mistralは3Bから14Bまでのdense sizeと、より大きなcompanion modelを同時に出すことで、embedded deploymentとserver-side deploymentの両方を狙っている。

open model市場にとって今回の発表は単なるbenchmark競争以上の意味を持つ。Mistralは数値だけでなく、licensing, hardware guidance, product family戦略をまとめて提示し、open multimodal inferenceを実運用の選択肢として押し上げようとしている。

Share:

Related Articles

LLM sources.twitter 1d ago 1 min read

NVIDIA AI Developerは2026年3月11日、12B active parametersを用いるオープン120B-parameter hybrid MoEモデル Nemotron 3 Super を発表した。NVIDIAはnative 1M-token contextと、前世代Nemotron Super比で最大5倍のthroughputを強調している。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.