r/MachineLearningで議論、ICMLのno-LLM review違反への対応
Original: [D] ICML rejects papers of reviewers who used LLMs despite agreeing not to View original →
2026年3月18日、r/MachineLearning で「[D] ICML rejects papers of reviewers who used LLMs despite agreeing not to」という投稿が上位に上がり、このクロール時点で184 points、70 commentsを集めた。元投稿はICMLの公式発表に直接つながっているわけではなく、X上で流れていた報告をもとに、no-LLM review track を選んだ reviewer-author の papers が reject されたという話を共有している。この違いは重要だ。このスレッドは公式アナウンスそのものというより、reported enforcement をめぐる community discussion として読むのが適切だ.
ICMLの公式文書が書いていること
- ICML 2026 Reviewer Instructions では、reviewer ごとに従うべき actual LLM policy が割り当てられ、その assigned policy から逸脱すると自分の submissions が desk rejection されうると明記されている.
- 同じ文書は、Position Paper Track の reviewing は conservative no-LLM policy に従う必要があるとも書いている.
- ICML Peer-review Ethics では、LLM policy の違反を reviewer duty neglect の一部として扱い、同じ author の全 submissions に対する desk rejection の理由になりうるとしている.
- さらに authors による prompt injection は禁止しつつも、reviewer の LLM use を検出するためだけの canary 的な文言を含む paper については penalize しないと説明している.
この点があるため、コメント欄では generic AI detector より prompt-injection canary の話が中心になった。2026年2月の別の r/MachineLearning thread では、PDF に埋め込まれた隠し文字列が compliance check の仕組みではないかという報告が出ていた。今回の3月の議論でも、こうした canary は文体ベースの AI detection よりはるかに信頼できるという意見が目立った。確率的な推定ではなく、特定の文言が review に現れたかどうかを見る deterministic marker に近いからだ.
Reddit議論が収束した点
- 高評価コメントの多くは、reviewer が明示的に no-LLM policy に同意していたなら厳格な執行は妥当だと見ていた.
- 別の意見では、問題は LLM が有用かどうかではなく、自分で選んだ rule を reviewer が破ったときに conference governance が成り立つかどうかだと整理されていた.
- 最も同情的に語られていたのは coauthor risk で、1人の違反で共著者全体が不利益を受ける可能性だ.
このスレッドが重要なのは、単なる conference gossip を超えているからだ。AI conference は review-time LLM use を将来の曖昧な論点としてではなく、実際の enforcement mechanism、reviewer acknowledgement、desk rejection language を伴う現在の integrity issue として扱い始めている。すべての reported case が公開の場で確定されるかどうかとは別に、policy の向かう方向はかなり明確になっている。
出典: r/MachineLearning discussion · ICML 2026 Reviewer Instructions · ICML 2026 Peer-review Ethics · earlier Reddit thread on PDF canaries
Related Articles
arXivが、LLMによるハルシネーションや誤結果を検証せずに掲載した論文の著者全員に対し、最長1年間の投稿禁止処分を開始した。AI生成コンテンツに対する学術的責任の基準を明確化する重要な方針転換だ。
r/MachineLearningのReddit議論では、ICML 2026がPolicy Aに違反したreviewerに結び付くsubmissionsをdesk rejectした対応をめぐって賛否が分かれた。公式ICML資料は、Policy A/Bの構造、違反時のsanctions、そしてgeneric AI detectorではなくwatermarkingとmanual verificationを使った検出方針を示している。
米国立標準技術研究所(NIST)傘下のCAISIは2026年5月5日、Google DeepMind・Microsoft・xAIとAI出荷前評価協定を締結したと発表した。OpenAI・Anthropicとの既存協定を拡張し、米国の主要フロンティアAI開発企業全体を対象とする体制が整った。
Comments (0)
No comments yet. Be the first to comment!