NVIDIAはHugging FaceでNemotron-Personas-Koreaを公開した。韓国の公的統計に基づく7 million synthetic personasは、agent localizationが翻訳だけでなく地域、敬語、職業、公共サービス文脈まで含むことを示す。
#nemotron
RSS Feedr/LocalLLaMAでは、NVIDIAが今後5年間でopen-weight AI modelに$26 billionを投じる可能性があるという報道が急速に広まったが、実際の論点は数字そのものより戦略にあった。March 2026に公開されたNemotron 3 Superは、NVIDIAがopen model、tooling、Blackwell最適化deploymentを一体で押し出していることを示す最も明確な証拠だ。
NVIDIAは2026年3月25日、Nemotron Nano 12B v2 VLがオンプレミスのvideo understandingを支え、同社の説明ではMediaPerf benchmarkで30B級代替に近い結果をより小さなfootprintで示したと発表した。NVIDIAのモデルカードはこれをmulti-image reasoning、video understanding、visual Q&A、summarization向けの商用利用可能なマルチモーダルモデルとして説明している。
NVIDIAは2026年3月16日、Nemotron Coalitionを発表した。Black Forest Labs、Cursor、LangChain、Mistral AI、Perplexity、Reflection AI、Sarvam、Thinking Machines Labが参加し、最初のmodelはNVIDIA DGX Cloudで学習され、今後のNemotron 4 familyの基盤になる。
r/LocalLLaMA の新しいスレッドでは、NVIDIA の Nemotron-Cascade-2-30B-A3B が medium Qwen 3.5 系より強い coding 結果を出せるとして注目を集めた。community benchmark と NVIDIA の model card を並べると、local inference のコストと reasoning 性能の新しい折り合いが見えてくる。
Mistral AIは2026年3月16日、NVIDIAと frontier open-source AI models を共同開発する戦略的パートナーシップを発表した。続くMistralの公式文は、MistralがNVIDIA Nemotron Coalitionのfounding memberとして参加し、large-scale model developmentとmultimodal capabilitiesを提供すると説明している。
NVIDIAはMarch 11, 2026、Nemotron 3 Superを公開した。120-billion-parameter hybrid MoE、12 billion active parameters、1-million-token context、high-accuracy tool callingを組み合わせた open model と説明している。
2026年3月15日に高い反応を集めたLocalLLaMA threadは、NVIDIA Nemotron model familyのlicense変更に注目した。現在のNVIDIA Nemotron Model Licenseを以前のOpen Model Licenseと比べると、communityが反応した理由は明快だ。以前のguardrail termination clauseとTrustworthy AIへの参照が見当たらなくなり、代わりにNOTICEベースのattribution構造が前面に出ている。
2026年3月15日のLocalLLaMA投稿は、Hugging Face model card commit と NVIDIA のライセンスページを根拠に、Nemotron Super 3 が従来の NVIDIA Open Model License から NVIDIA Nemotron Open Model License へ移ったことを指摘した。
NVIDIAは2026年3月11日、120B parameter級の open model Nemotron 3 Super を発表した。NVIDIAは、1M-token context、hybrid MoE architecture、最大5倍の throughput により、agentic AI の context explosion と thinking tax を抑えると説明している。
NVIDIA AI Developerは2026年3月11日、12B active parametersを用いるオープン120B-parameter hybrid MoEモデル Nemotron 3 Super を発表した。NVIDIAはnative 1M-token contextと、前世代Nemotron Super比で最大5倍のthroughputを強調している。
LocalLLaMAで反応を集めたPatentLLMは、2016-2025年の米国特許350万件を74GBのSQLite fileに収め、FTS5/BM25検索とNemotron 9Bによる100個のtech tag分類・query expansionを組み合わせた無料検索エンジンだ。vector searchの定石を追わず、exact phrase matchingと単純な運用スタックを選んだ点が特に目立つ。