Mistral、reasoning・coding・multimodalを統合したオープンソースモデルMistral Small 4を発表
Original: Introducing Mistral Small 4 View original →
Mistralは2026年3月16日、Mistral Small 4を公開し、reasoning、multimodal、agentic codingの能力を1つに統合した初のMistral Small系モデルだと説明した。発表の狙いは、chat、coding、image-aware reasoningのために複数のモデルを切り替える運用コストを下げることにある。
ブログによれば、このモデルは128 expertsを持つMoE構造で、トークンごとに4 expertsがアクティブになる。総パラメータ数は119B、トークン当たりの6B active parametersを特徴とし、さらに256k context windowとtext+image入力をサポートする。長文ドキュメント処理、multimodal assistant、複雑なagent workflowをまとめて扱うための設計だ。
- Apache 2.0ライセンスで公開
reasoning_effortで低遅延応答と深いstep-by-step reasoningを切り替え可能- Mistral Small 3比でcompletion timeを40%短縮し、throughputは3倍と主張
- Mistral API、AI Studio、Hugging Face、NVIDIA NIMで初日から利用可能
この発表が重要なのは、open model市場で個別性能だけでなく、1つのモデルでどれだけ多くのworkloadをカバーできるかが競争軸になっているためだ。長いcontext、multimodal入力、coding支援、可変的なreasoningを同時に求める企業は多いが、別々のモデルを組み合わせるとroutingや運用が複雑になる。MistralはSmall 4でその負担を減らそうとしている。
また、Mistralは効率面も強く訴求している。公開ベンチマークでは、reasoning modeのSmall 4がGPT-OSS 120Bと同等以上のスコアを出しつつ、より短い出力で結果を返すと説明されている。実運用でも同様の傾向が再現されれば、latencyとinference costの両面でメリットが出る可能性がある。Marchのopen-model動向の中でも、Mistral Small 4はかなり重要なリリースの1つだ。
Related Articles
Show HN で紹介された llm-circuit-finder は、GGUF 内の特定 layer block をもう一度通すことで reasoning を改善できると主張する。もっとも強い benchmark 数値は repo author の自己報告であり、独立検証ではない。
OpenCode は Hacker News で 1,238 points と 614 comments を集めた。project site は、terminal・IDE・desktop をまたぐ open source AI coding agent として、75+ providers、LSP integration、multi-session workflow、privacy-first 設計を前面に出している。
Microsoft Researchは2026年3月4日、15 billion parameterのopen-weight modelであるPhi-4-reasoning-vision-15Bを発表した。同社は、より大規模なsystemほどのcompute負荷を伴わずに、multimodal reasoning、math・science task、computer-use性能を高めることを狙ったと説明している。
Comments (0)
No comments yet. Be the first to comment!