Mistral、Apache 2.0のマルチモーダル公開モデル群Mistral 3を発表
Original: Mistral 3 View original →
MistralはMarch 6, 2026に新しい主力open model群であるMistral 3を発表した。今回のリリースにはApache 2.0ライセンスの14B, 8B, 3B dense modelに加え、より大きな需要に向けたMistral Large 3も含まれる。Mistralによれば、Mistral Large 3は41B active parametersと675B total parametersを備える。
MistralはMistral 3をmultilingualかつmultimodalなfamilyとして紹介し、既存checkpointの派生ではなくfrom scratchで学習したと説明している。これはAPI専用のclosed modelにすぐ移行したくない組織に向けて、ライセンスが明確で自前運用しやすいopen alternativeを提供する位置づけだ。発表によると、Mistral 3は現在LMArenaでopen-source non-reasoning部門2位に位置し、reasoning版も今後投入される予定だという。
主なポイント
- Mistral 3の14B, 8B, 3BはApache 2.0で公開される。
- Blackwell NVL72向けoptimized checkpointと、vLLM経由でsingle 8xA100または8xH100 nodeに載せる展開経路が示された。
- Mistral Large 3は41B active, 675B total parametersの大型modelとして説明されている。
- MistralはMistral Medium 3.1, Mistral Small 3.2, Ministral 3へ続くfamily戦略もあわせて提示した。
運用面で重要なのは、多くのチームが最大modelそのものよりも、ライセンスが明確で、自分たちが管理するhardwareで動かせて、multimodal workload向けに調整しやすいmodelを必要としている点だ。Mistralは3Bから14Bまでのdense sizeと、より大きなcompanion modelを同時に出すことで、embedded deploymentとserver-side deploymentの両方を狙っている。
open model市場にとって今回の発表は単なるbenchmark競争以上の意味を持つ。Mistralは数値だけでなく、licensing, hardware guidance, product family戦略をまとめて提示し、open multimodal inferenceを実運用の選択肢として押し上げようとしている。
Related Articles
Google AIはGemini 3.1 Flash-Liteの実運用例として、大量画像の仕分けや業務自動化シナリオを紹介した。Gemini API、Google AI Studio、Vertex AIのpreview導線も同時に示された。
NVIDIA AI Developerは2026年3月11日、12B active parametersを用いるオープン120B-parameter hybrid MoEモデル Nemotron 3 Super を発表した。NVIDIAはnative 1M-token contextと、前世代Nemotron Super比で最大5倍のthroughputを強調している。
Microsoftは、Fireworks AIがMicrosoft Foundryに加わり、Azureでhigh-performanceかつlow-latencyなopen model inferenceを提供すると発表した。day-zero access、custom model持ち込み、enterprise controlを一体で扱える点が中核だ。
Comments (0)
No comments yet. Be the first to comment!