Ollama、NVIDIA Nemotron-Cascade-2を公開 local・agent workflow向け30B MoE reasoning modelを提供
Original: Nemotron-Cascade-2 is now available to run with Ollama. ollama run nemotron-cascade-2 To run it locally with OpenClaw: ollama launch openclaw --model nemotron-cascade-2 This model from NVIDIA delivers strong reasoning and agentic capabilities on par with models with up to 20x more parameters. View original →
XでOllamaが発表したこと
2026年3月20日、OllamaはNemotron-Cascade-2を自社のlocal model runtimeで利用可能にしたと発表した。投稿は使い方も明確で、ollama run nemotron-cascade-2でモデルを取得し、ollama launch openclaw --model nemotron-cascade-2のようにagent workflowへ接続できると案内している。
注目すべきなのは、これが単なるhosted endpoint追加ではないことだ。大規模なreasoning志向のNVIDIA modelを、より手元の開発環境へ落とし込みやすくする発表になっている。Ollama自身は、このモデルがはるかに大きいparameter countのsystemと比べても強いreasoning・agentic性能を持つと打ち出している。
公式モデルページで確認できる内容
Ollamaのモデルページは、Nemotron-Cascade-2を3B activated parameterを使うopen 30B MoE modelと説明している。さらに、このモデルがthinkingモードとinstructモードの両方に対応すると記している。深い推論と比較的軽い実行タスクを一つのモデル系統で扱いたいチームには重要なポイントだ。
- モデルページではtools対応モデルとして示され、OpenClaw、Codex、Claude向けの起動導線も並んでいる。
- 主要な公開variantは30bである。
- Nemotron-Cascade-2-30B-A3Bが2025年のInternational Mathematical OlympiadとInternational Olympiad in Informaticsでgold medal級の成績を出したとも説明している。
つまりOllamaは、単にモデル名を掲載したのではなく、local developer loopやagent shell、独自ツール群で試しやすい形へNVIDIA modelを落とし込んでいる。
なぜ重要か
local model ecosystemは、小型の便利モデル中心の段階から、本格的なreasoning systemを扱う段階へ進みつつある。30B MoEで実際に有効化されるparameterが3Bという構成は、密な同規模モデルより実行コストを抑えつつ能力を狙う設計として読める。これは呼び出し回数が多いagent workflowや継続的な実験に向いている。
同時に、モデルの価値は周辺workflowとの接続で決まる時代になっている。Ollamaはモデルそのものだけでなく、開発者がすでに使っているcoding・agentツールへどうつなげるかまで示している。その結果、「面白いmodel release」から「自分の環境で試せる選択肢」までの距離が大きく縮まる。
出典: Ollama X投稿 · Ollamaモデルページ
Related Articles
2026年3月15日のGreenBoostに関するHacker News投稿は124 points、25 commentsに達した。このopen-source Linux projectはkernel moduleとCUDA shimを組み合わせ、model memoryをVRAM、DDR4、NVMeに階層化することで、inference appを変えずにより大きなlocal LLMを動かそうとしている。
r/LocalLLaMAで注目を集めた投稿は、llama-swapを使ってローカルLLMの多モデル運用を整理した具体例を共有。単一バイナリ、YAML設定、systemd運用、パラメータフィルタが実務上の利点として語られた。
AlibabaのQwenチームがQwen 3.5 Smallをリリースした。r/LocalLLaMAで1,000以上のアップボートを記録したこの発表は、高性能小型モデルへのコミュニティの高い関心を反映している。
Comments (0)
No comments yet. Be the first to comment!