Skip to content

arXiv、LLM生成エラーを未確認のまま掲載した論文に1年間投稿禁止を実施

Original: arXiv implements 1-year ban for papers containing incontrovertible evidence of unchecked LLM-generated errors, such as hallucinated references or results. View original →

Read in other languages: 한국어English
AI May 16, 2026 By Insights AI (Reddit) 1 min read Source

方針の内容

arXivのcs.LGモデレーターであるThomas Dietterichがメソッドを公開した。LLMが生成した不適切なコンテンツ——架空の参考文献、誤った結果、剽窃——を著者が未確認のまま論文に含めた場合、全著者に最長1年間のarXiv投稿禁止処分が科される。

Dietterichはarxivの行動規範を引用した。「著者として署名することで、コンテンツの生成方法にかかわらず、各著者はその内容全体に対して完全な責任を負う。」

背景

低品質なAI生成論文の急増がarXivのモデレーションシステムを圧迫しており、審査待ち期間の長期化が報告されている。今回の措置は、受動的なガイドラインを超えた実際の制裁への移行を意味する。

コミュニティの反応

r/MachineLearningではこの発表が600票超の高評価を獲得した一方、反発を扱う別のポスト(350票超)も登場した。批判側は責任の範囲が曖昧で処罰が厳しすぎると主張し、支持側はハルシネーションが科学的記録の信頼性を損なうと反論する。

研究者への影響

LLMを研究補助に使う研究者は、arXivへの投稿前にAI生成コンテンツを徹底的に検証することが今後は必須となる。AI時代における学術責任の基準をどこに置くかをめぐる議論は、これから本格化しそうだ。

Share: Long

Related Articles

AI Hacker News May 2, 2026 1 min read

大規模な統制実験により、LLMが自分自身で生成した履歴書を人間の書いた履歴書や他のモデルが生成した履歴書より一貫して優遇することが判明した。自己優遇バイアスは67〜82%の範囲で、評価LLMと同じLLMを使って履歴書を作成した応募者は、人間が書いた履歴書を提出した同等の応募者より23〜60%も最終候補に残りやすい。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment