r/LocalLLaMAが注目、公開30B MoE reasoning model NVIDIA Nemotron-Cascade-2-30B-A3B
Original: Nemotron Cascade 2 30B A3B View original →
2026年3月20日、r/LocalLLaMAではNVIDIAのNemotron-Cascade-2-30B-A3Bを扱う投稿が93 points、37 commentsに達した。関心を集めた理由は明快だ。open 30B mixture-of-experts modelでありながら、実際にactivatedされるparameterは3Bに抑えられ、benchmark claimもlocal deploymentや制約のある環境でモデルを動かす人たちに十分意味があるからだ。
Hugging Face model cardによれば、Nemotron-Cascade-2-30B-A3BはNemotron-3-Nano-30B-A3B-Baseをpost-trainしたモデルだ。NVIDIAはこれをthinking modeとinstruct modeの両方で動作するdual-mode modelとして説明している。chat templateはChatML形式を採用し、reasoning contentを<think>タグに入れ、non-reasoning modeへは空の<think></think>を先頭に付ける方法を示している。
モデルが目立つ理由
headlineの数字もかなり強い。NVIDIAは2025 IMOとIOIでgold medal級の結果を主張し、LiveCodeBench、ArenaHard v2、IFBench、複数のmath benchmarkでも高い数値を出している。さらにmodel cardにはsampling parameter、tool-response formatting、multi-turn promptingの扱いまで書かれており、単なるbenchmark発表ではなく、すぐ試せるreleaseとして整理されている。
- 30B total parametersのうち3B only activatedという設計は、open deploymentの効率面で大きな魅力がある。
- 公開値にはIMO 2025で35 points、IOI 2025で439.3、LiveCodeBench v6で87.2、ArenaHard v2平均で83.5が含まれる。
- 同じcardではlong-contextや一部agentic evaluationでより複雑な結果も示され、利点とtradeoffの両方を読み取れる。
このバランスこそがLocalLLaMA threadの意味だ。このコミュニティは磨かれたlaunch narrativeより、新しいopen modelが実際にどれだけ有効なspeed-to-capability ratioを持つかを重視する。Nemotron-Cascade-2-30B-A3Bは、open distribution、明示的なreasoning control、厚みのあるbenchmarkを組み合わせることで、open-model stackの中で真剣に検討すべき選択肢として浮上している。
Related Articles
2026年3月15日に高い反応を集めたLocalLLaMA threadは、NVIDIA Nemotron model familyのlicense変更に注目した。現在のNVIDIA Nemotron Model Licenseを以前のOpen Model Licenseと比べると、communityが反応した理由は明快だ。以前のguardrail termination clauseとTrustworthy AIへの参照が見当たらなくなり、代わりにNOTICEベースのattribution構造が前面に出ている。
r/LocalLLaMA で 92 points と 25 comments を集めた Covenant-72B は、20+ の参加者が Bittensor blockchain 上の decentralized infrastructure を通じて 72B parameters の model を from scratch で学習した事例として注目された。重要なのは根拠の薄い性能誇張ではなく、permissionless collaborative training、SparseLoCo による通信削減、Apache 2.0 license、そして separate Chat variant という構成だ。
NVIDIAはMarch 11, 2026、Nemotron 3 Superを公開した。120-billion-parameter hybrid MoE、12 billion active parameters、1-million-token context、high-accuracy tool callingを組み合わせた open model と説明している。
Comments (0)
No comments yet. Be the first to comment!