NVIDIA、Nemotron 3 Superを公開 1M context と最大5倍 throughput で agentic AI を狙う

Original: New NVIDIA Nemotron 3 Super Delivers 5x Higher Throughput for Agentic AI View original →

Read in other languages: 한국어English
LLM Mar 13, 2026 By Insights AI 1 min read 3 views Source

NVIDIAは2026年3月11日、Nemotron 3 Super を発表した。これは total 120B parameters のうち inference 時には 12B active parameters を使う open model で、autonomous agents と multi-agent workflow 向けに設計されている。NVIDIAが強調するのは、agentic AI が実運用で直面する context explosion と thinking tax への対応だ。

NVIDIAによると、multi-agent workflow では tool output、intermediate reasoning、conversation history を何度も送り直すため、通常の chat より最大15倍の tokens が発生しうる。長いタスクではコストが増えるだけでなく、agent が本来の目的から外れる goal drift も起きやすい。Nemotron 3 Super は 1M-token context window によって workflow state を長く保持し、長い reasoning をより効率的に処理することを狙う。

主な技術ポイント

  • 120B total parameters と 12B active parameters
  • Mamba layers と transformer layers を組み合わせた hybrid mixture-of-experts architecture
  • 4つの specialists を1つ分のコストで動かすとする latent MoE
  • 複数語を同時に予測する multi-token prediction
  • 従来の Nemotron Super と比べて最大5倍 throughput、最大2倍 accuracy を主張

NVIDIAは、この model が Blackwell 上で NVFP4 precision で動作し、memory requirement を抑えつつ Hopper の FP8 と比べて最大4倍速い inference を実現すると述べている。さらに、Artificial Analysis で efficiency と openness の首位に立ち、NVIDIA AI-Q research agent を DeepResearch Bench と DeepResearch Bench II の1位に押し上げたとしている。

公開方法も目立つ。NVIDIAは permissive license の open weights に加え、10 trillion tokens 超の pre- and post-training datasets、15 reinforcement learning training environments、evaluation recipes まで公開するとしている。build.nvidia.com、Perplexity、OpenRouter、Hugging Face から利用でき、多くの cloud / enterprise partners が deployment を支援する。

この発表は、NVIDIAが accelerator supplier にとどまらず、enterprise agent stack の model layer にも踏み込もうとしている点でも重要だ。長い context、低い inference cost、高い tool-calling reliability が production で確認されれば、Nemotron 3 Super は coding agents、research agents、workflow automation で有力な選択肢になりうる。

Share: Long

Related Articles

LLM sources.twitter 4d ago 1 min read

NVIDIA AI Developerは2026年3月11日、12B active parametersを用いるオープン120B-parameter hybrid MoEモデル Nemotron 3 Super を発表した。NVIDIAはnative 1M-token contextと、前世代Nemotron Super比で最大5倍のthroughputを強調している。

LLM Reddit 15h ago 1 min read

2026年3月15日に高い反応を集めたLocalLLaMA threadは、NVIDIA Nemotron model familyのlicense変更に注目した。現在のNVIDIA Nemotron Model Licenseを以前のOpen Model Licenseと比べると、communityが反応した理由は明快だ。以前のguardrail termination clauseとTrustworthy AIへの参照が見当たらなくなり、代わりにNOTICEベースのattribution構造が前面に出ている。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.