Mistral、Apache 2.0のマルチモーダル公開モデル群Mistral 3を発表
Original: Mistral 3 View original →
MistralはMarch 6, 2026に新しい主力open model群であるMistral 3を発表した。今回のリリースにはApache 2.0ライセンスの14B, 8B, 3B dense modelに加え、より大きな需要に向けたMistral Large 3も含まれる。Mistralによれば、Mistral Large 3は41B active parametersと675B total parametersを備える。
MistralはMistral 3をmultilingualかつmultimodalなfamilyとして紹介し、既存checkpointの派生ではなくfrom scratchで学習したと説明している。これはAPI専用のclosed modelにすぐ移行したくない組織に向けて、ライセンスが明確で自前運用しやすいopen alternativeを提供する位置づけだ。発表によると、Mistral 3は現在LMArenaでopen-source non-reasoning部門2位に位置し、reasoning版も今後投入される予定だという。
主なポイント
- Mistral 3の14B, 8B, 3BはApache 2.0で公開される。
- Blackwell NVL72向けoptimized checkpointと、vLLM経由でsingle 8xA100または8xH100 nodeに載せる展開経路が示された。
- Mistral Large 3は41B active, 675B total parametersの大型modelとして説明されている。
- MistralはMistral Medium 3.1, Mistral Small 3.2, Ministral 3へ続くfamily戦略もあわせて提示した。
運用面で重要なのは、多くのチームが最大modelそのものよりも、ライセンスが明確で、自分たちが管理するhardwareで動かせて、multimodal workload向けに調整しやすいmodelを必要としている点だ。Mistralは3Bから14Bまでのdense sizeと、より大きなcompanion modelを同時に出すことで、embedded deploymentとserver-side deploymentの両方を狙っている。
open model市場にとって今回の発表は単なるbenchmark競争以上の意味を持つ。Mistralは数値だけでなく、licensing, hardware guidance, product family戦略をまとめて提示し、open multimodal inferenceを実運用の選択肢として押し上げようとしている。
Related Articles
Google DeepMindはGemini 3 researchを基盤にしたopen model familyであるGemma 4を公開した。E2B・E4Bはedge device向け、26B・31Bはconsumer GPU前提のlocal workflow向けで、function calling、multimodal reasoning、140言語対応を前面に出している。
Mistral AIは2026年3月16日、NVIDIAと frontier open-source AI models を共同開発する戦略的パートナーシップを発表した。続くMistralの公式文は、MistralがNVIDIA Nemotron Coalitionのfounding memberとして参加し、large-scale model developmentとmultimodal capabilitiesを提供すると説明している。
2026年3月16日、Mistral Small 4 への r/LocalLLaMA リンクは504 pointsと196 commentsを集めた。Hugging Face model card は、4 active experts の 119B MoE、256k context、multimodal input、per-request reasoning control を打ち出している。
Comments (0)
No comments yet. Be the first to comment!