LocalLLaMAが注目したNemotronライセンス更新、派生利用の摩擦を下げる可能性
Original: Nvidia updated the Nemotron Super 3 122B A12B license to remove the rug-pull clauses View original →
open-modelコミュニティがすぐに反応したライセンス変更
2026年3月15日、r/LocalLLaMA では Nemotron Super 3 120B A12B 系列のライセンス更新が話題になった。クロール時点で121 upvotes、44 commentsである。ここで重要なのは、投稿者が貼った AI-generated summary ではなく、リンクされた一次資料だ。つまり NVIDIA の旧版・新版ライセンスページと、BF16、FP8、NVFP4 variant に対する Hugging Face commit が実質的な根拠になっている。
もっとも明確なのは BF16 model card の commit で、license_name が nvidia-open-model-license から nvidia-nemotron-open-model-license へ変わり、license URL も差し替えられている。これだけであらゆる法的解釈が終わるわけではないが、Nemotron Super 3 の公開 metadata が単なる README の見た目変更ではなく、別の NVIDIA license text を指すようになったことは確認できる。
文面で確認できる差分
2025年10月24日付の旧 NVIDIA Open Model License Agreement には、十分に類似した guardrail を置かずに safety guardrail を回避または弱めた場合、権利が自動的に終了するという文言が含まれていた。さらに NVIDIA の Trustworthy AI terms への参照があり、Special-Purpose Model に関する文言も存在した。対して 2025年12月15日付の NVIDIA Nemotron Open Model License は、より短く self-contained だ。works are commercially usable と明記し、derivative works の作成と配布を認め、output に対する所有権は主張しないとしている。redistribution 条件も、ライセンスの同梱、notice の保持、そして NOTICE file がある場合の Nemotron notice 文言の同梱に整理されている。
重要なのは、NVIDIA サイトで公開されている新しい Nemotron license text には、旧文書にあった guardrail 回避に結びついた automatic termination 条項が見当たらず、別個の Trustworthy AI 文書への参照もないことだ。代わりに license grant は perpetual、irrevocable と説明され、終了条件は特許または著作権訴訟の提起に寄っている。fine-tuning、redistribution、open-weight model の運用明確性を重視する LocalLLaMA ユーザーにとって、これは無視できない差だった。
なぜ意味があるのか、ただし注意点もある
実務上は、model card からたどるライセンス表面がシンプルになったことに意味がある。Nemotron weights を扱う運用者は、旧 Open Model text と別の ethics URL を行き来しなくても、基礎条件を把握しやすくなる。一方で、これは licensing update であって、すべての利用が自動的に安全になるという話ではない。製品導入や再配布を伴うチームは、実際の NVIDIA 文面を自分たちで読み、必要なら compliance review を行うべきだ。
一次資料: Hugging Face BF16 commit、旧 NVIDIA Open Model License、NVIDIA Nemotron Open Model License。コミュニティ議論: r/LocalLLaMA.
Related Articles
2026年3月15日に高い反応を集めたLocalLLaMA threadは、NVIDIA Nemotron model familyのlicense変更に注目した。現在のNVIDIA Nemotron Model Licenseを以前のOpen Model Licenseと比べると、communityが反応した理由は明快だ。以前のguardrail termination clauseとTrustworthy AIへの参照が見当たらなくなり、代わりにNOTICEベースのattribution構造が前面に出ている。
NVIDIA AI Developerは2026年3月11日、12B active parametersを用いるオープン120B-parameter hybrid MoEモデル Nemotron 3 Super を発表した。NVIDIAはnative 1M-token contextと、前世代Nemotron Super比で最大5倍のthroughputを強調している。
NVIDIAは2026年3月11日、120B parameter級の open model Nemotron 3 Super を発表した。NVIDIAは、1M-token context、hybrid MoE architecture、最大5倍の throughput により、agentic AI の context explosion と thinking tax を抑えると説明している。
Comments (0)
No comments yet. Be the first to comment!