ICML 2026のPolicy A違反対応をめぐるReddit議論
Original: [D] ICML rejects papers of reviewers who used LLMs despite agreeing not to View original →
2026年3月18日に公開された r/MachineLearningのReddit post は、ICMLがLLM不使用に同意したreviewerの違反を理由にpapersをrejectするのは厳しすぎるのか、という問いを投げかけた。議論はすぐに二つに分かれた。ひとつは、事前に合意したruleを破った以上、強いenforcementは妥当だという立場。もうひとつは、false positiveの可能性がゼロでないならdesk rejectionは重すぎるという懸念である。
公式確認は、ICMLの2026年3月18日付blog post On Violations of LLM Review Policies から得られる。ICMLは、Policy Aに同意していたreciprocal reviewer 506人に対応するsubmissions 497件をdesk rejectしたと説明した。あわせて、ICML 2026ではreviewingに二つのpolicyが導入されていたことも明示している。
- Policy A: reviewingでのLLM使用を禁止。
- Policy B: privacy-compliant LLMsを、paperの理解、related worksの確認、reviewer自身が書いた文章のpolishに限って許可。ただし、strengthsやweaknessesの判断、reviewのoutline提案、full reviewの作成は許可しない。
reviewer instructions は、sanctionの根拠をさらに明確にしている。reviewerは、自分にassignedされたpolicyから逸脱した場合、自分自身のsubmissionsがdesk rejectionされ得ることに同意するよう求められている。日程も重要だ。公式instructionsによれば、reviewing periodは2026年2月12日から3月12日までで、reviewer-author discussion periodは2026年3月24日に始まる。つまり今回の執行は、initial review提出後であり、authorとの次のやり取りが始まる直前に公表されたことになる。
ICMLの説明は、generic AI writing detectorに頼ったという見方も退けている。blog postでは、submission PDFにhidden instructionを埋め込むwatermarkingを使い、flagされたcaseはすべて人手で確認したと述べている。さらに、Introducing ICML 2026 policy for LLMs in reviews などのearlier official materialsでは、reported violationsはpenalizeされ、peer-review confidentialityを尊重しながらautomated toolsで違反検出を試みる予定だと、すでに示されていた。
Reddit commentsが最も注目したのも、そのdetection methodだった。複数のcommenterは、これはprompt injectionあるいはwatermarkingに近く、paperのPDF全体をLLMに入れて、その出力をほぼそのまま使うような最も不用意な違反を主に捕まえる仕組みだと説明した。支持する側は、そのため通常のAI-text detectionよりfalse positiveが起きにくいと主張した。一方で懸念する側は、たとえ誤検出率が低くても、desk rejectionの影響はcoauthor、collaboration、reputationにまで及び得るため、evidenceの基準は非常に厳格であるべきだと述べた。
総合すると、Reddit議論と公式ICML資料が示しているのは、LLM時代のpeer review ruleをICMLが実際に執行し始めたということだ。重要なのは、Redditのheadlineより範囲が狭い点である。今回の対応は、no-LLM trackであるPolicy Aを実際にassignedされ、違反すれば自分のsubmissionにも不利益が及ぶと事前に明示されていたreviewerに対して適用された、というのがより正確な整理になる。
Related Articles
184-point の r/MachineLearning スレッドでは、ICML の no-LLM review policy 違反に対する reported enforcement をめぐり、canary ベースの検出と coauthor risk が主な論点になった。
2026年3月17日にr/MachineLearningへ投稿されたClip to Grokスレッドは、クロール時点で56ポイントと20件のコメントを集めた。投稿者は、optimizer stepごとにdecoder weight rowをL2 clippingすることで、modular arithmetic benchmarkで18倍から66倍速いgeneralizationを得たと主張している。
2026年3月19日にHacker Newsへ投稿されたNanoGPT Slowrunスレッドは、クロール時点で162ポイントと43件のコメントを集めた。Q Labsは、100M tokenで学習した1.8B parameter ensembleが通常1B tokenを要するbaselineに匹敵したと主張している。
Comments (0)
No comments yet. Be the first to comment!