arXiv、LLM生成エラーを未確認のまま掲載した論文に1年間投稿禁止を実施
Original: arXiv implements 1-year ban for papers containing incontrovertible evidence of unchecked LLM-generated errors, such as hallucinated references or results. View original →
方針の内容
arXivのcs.LGモデレーターであるThomas Dietterichがメソッドを公開した。LLMが生成した不適切なコンテンツ——架空の参考文献、誤った結果、剽窃——を著者が未確認のまま論文に含めた場合、全著者に最長1年間のarXiv投稿禁止処分が科される。
Dietterichはarxivの行動規範を引用した。「著者として署名することで、コンテンツの生成方法にかかわらず、各著者はその内容全体に対して完全な責任を負う。」
背景
低品質なAI生成論文の急増がarXivのモデレーションシステムを圧迫しており、審査待ち期間の長期化が報告されている。今回の措置は、受動的なガイドラインを超えた実際の制裁への移行を意味する。
コミュニティの反応
r/MachineLearningではこの発表が600票超の高評価を獲得した一方、反発を扱う別のポスト(350票超)も登場した。批判側は責任の範囲が曖昧で処罰が厳しすぎると主張し、支持側はハルシネーションが科学的記録の信頼性を損なうと反論する。
研究者への影響
LLMを研究補助に使う研究者は、arXivへの投稿前にAI生成コンテンツを徹底的に検証することが今後は必須となる。AI時代における学術責任の基準をどこに置くかをめぐる議論は、これから本格化しそうだ。
Related Articles
NVIDIA AIが、30B・23B・12Bの推論モデルを1つのチェックポイントに統合した「Star Elastic」を公開。ゼロショットスライシングにより、別途ダウンロードなしにモデル規模を動的に切り替えられる。
大規模な統制実験により、LLMが自分自身で生成した履歴書を人間の書いた履歴書や他のモデルが生成した履歴書より一貫して優遇することが判明した。自己優遇バイアスは67〜82%の範囲で、評価LLMと同じLLMを使って履歴書を作成した応募者は、人間が書いた履歴書を提出した同等の応募者より23〜60%も最終候補に残りやすい。
米国立標準技術研究所(NIST)傘下のCAISIは2026年5月5日、Google DeepMind・Microsoft・xAIとAI出荷前評価協定を締結したと発表した。OpenAI・Anthropicとの既存協定を拡張し、米国の主要フロンティアAI開発企業全体を対象とする体制が整った。
Comments (0)
No comments yet. Be the first to comment!