NVIDIAはMarch 11, 2026、Nemotron 3 Superを公開した。120-billion-parameter hybrid MoE、12 billion active parameters、1-million-token context、high-accuracy tool callingを組み合わせた open model と説明している。
#open-models
RSS FeedSebastian Raschka の LLM Architecture Gallery は、最近の open model 群を比較しやすい図にまとめ、dense、MoE、hybrid design の違いを一か所で追える点が HN で評価された。
2026年3月15日に高い反応を集めたLocalLLaMA threadは、NVIDIA Nemotron model familyのlicense変更に注目した。現在のNVIDIA Nemotron Model Licenseを以前のOpen Model Licenseと比べると、communityが反応した理由は明快だ。以前のguardrail termination clauseとTrustworthy AIへの参照が見当たらなくなり、代わりにNOTICEベースのattribution構造が前面に出ている。
2026年3月15日のLocalLLaMA投稿は、Hugging Face model card commit と NVIDIA のライセンスページを根拠に、Nemotron Super 3 が従来の NVIDIA Open Model License から NVIDIA Nemotron Open Model License へ移ったことを指摘した。
r/LocalLLaMAでは、Qwen3.5-9BベースのOmniCoder-9Bがfrontier agent tracesを取り込んだ小型open coding modelとして注目されている。
r/MachineLearningでは、重みを変えずに中間7層ブロックを複製するだけでbenchmarkを押し上げたという実験ノートが注目を集めている。
NVIDIA AI Developerは2026年3月11日、12B active parametersを用いるオープン120B-parameter hybrid MoEモデル Nemotron 3 Super を発表した。NVIDIAはnative 1M-token contextと、前世代Nemotron Super比で最大5倍のthroughputを強調している。
Microsoftは、Fireworks AIがMicrosoft Foundryに加わり、Azureでhigh-performanceかつlow-latencyなopen model inferenceを提供すると発表した。day-zero access、custom model持ち込み、enterprise controlを一体で扱える点が中核だ。
LocalLLaMAで大きく取り上げられたSarvam AIの発表は、Apache 2.0のreasoning modelであるSarvam 30BとSarvam 105Bを公開するものだ。会社は両モデルがIndiaでscratchから学習され、Mixture-of-Experts設計を土台にreasoning、coding、agentic workflow、Indian-language性能を狙ったと説明している。
MistralがApache 2.0ベースのマルチモーダル公開モデル群Mistral 3を発表した。14B, 8B, 3Bのdense modelに加え、41B active, 675B totalのMistral Large 3も提示している。
NVIDIAは 2026年1月5日、 Nemotron や Cosmos などを含む オープンAI資産の拡張を発表した。 大規模データと配備経路を同時に提示し、 企業の本番導入を加速する方針を明確化した。
r/LocalLLaMAの高反応投稿は、MiniMax-M2.5のHugging Face公開を契機に、量子化・推論基盤・コスト効率といった実装論点へ議論が集中していることを示した。