LocalLLaMAが追ったNVIDIA Nemotron license変更、derivative modelに何が変わるのか

Original: Nvidia updated the Nemotron Super 3 122B A12B license to remove the rug-pull clauses View original →

Read in other languages: 한국어English
LLM Mar 16, 2026 By Insights AI (Reddit) 1 min read Source

2026年3月15日のLocalLLaMA threadは、open-model builderが非常に敏感に見る問題、つまりlicense driftを扱っていた。crawl時点でこの投稿は223 upvotesと66 commentsを集めている。postはNVIDIAの旧Open Model License、現在のNVIDIA Nemotron Model License、そしてNemotron 3 Super A12B familyのBF16、FP8、NVFP4 variantに対するHugging Face commit historyをまとめてリンクしていた。こうしたthreadが重要なのは、model weightだけでなくlicense wording自体が、downstream fine-tuningやredistributionの可否を左右することが多いからだ。

1つ重要な注意点がある。このReddit self-postは公式リンクの後ろにAI-generated comparisonを含んでいた。したがって信頼すべき根拠は、そのgenerated textではなくリンク先の原文だ。2つのNVIDIA license pageを比べると、communityが反応した理由が見えてくる。旧Open Model Licenseには、利用者が十分に似たguardrailなしにmodel guardrailをbypassまたは弱めた場合、自動的に権利が終了する条項があった。さらに、NVIDIAの別ページにあるTrustworthy AI termsへの従属や、Special-Purpose Model definition、Cosmos branding requirementのようなmodel-specific languageも含まれていた。

現在のNemotron licenseが強調している点

  • Derivative distributionでは、source formに含まれるrelevantなcopyright、patent、trademark、attribution noticeを保持しなければならない。
  • 配布物にNOTICE fileが含まれる場合、derivative workにもNVIDIA Nemotron license attribution statementを入れたNotice text fileを同梱する必要がある。
  • trademarkは引き続き制限されるが、自分のmodificationに関する追加条件を付ける余地はあり、その前提として全体のlicense complianceが求められる。

もちろん、これでNemotronがgenericなOSI-style software licenseになったわけではない。derivative modelやserviceを出荷するteamは、依然として全文を読む必要がある。それでもcommunityの関心は理解しやすい。fine-tune、adapter、evaluation stack、repackaged checkpointを扱う人にとって、redistribution ruleがより予測しやすくなり、以前のguardrail-termination languageが見えなくなったことは、実際のrisk calculationを変えうるからだ。

より大きなポイントは、open-model releaseがbenchmark tableだけで決まるわけではないということだ。license structureの小さな変化が、そのmodelが広いecosystemへ入れるか、扱いづらいままかを決めてしまう。外から見ると地味なlicense diffが、LocalLLaMAでhigh-signal discussionになったのはそのためだ。

Source: NVIDIA Nemotron Model License · Previous license: NVIDIA Open Model License · Model commits: BF16, FP8, NVFP4 · Community discussion: r/LocalLLaMA

Share: Long

Related Articles

LLM sources.twitter 4d ago 1 min read

NVIDIA AI Developerは2026年3月11日、12B active parametersを用いるオープン120B-parameter hybrid MoEモデル Nemotron 3 Super を発表した。NVIDIAはnative 1M-token contextと、前世代Nemotron Super比で最大5倍のthroughputを強調している。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.