r/MachineLearning, 완전히 AI로 작성된 듯한 ICML 제출물에 반발
Original: [D] ICML paper to review is fully AI generated View original →
r/MachineLearning에서 화제가 된 글은 한 리뷰어의 짧지만 날카로운 불만에서 시작됐다. 그는 no-LLM assistant 규정이 있는 ICML 제출물을 리뷰하게 됐는데, 논문이 마치 “Twitter hype thread”처럼 읽히고 사실상 전부 AI가 쓴 것처럼 보인다고 적었다. 문제는 단순히 문체 취향이 아니라, 이런 경우 Area Chair에게 flag해야 하는지, 그 자체로 reject 사유인지, 혹은 연구는 사람이 하고 writing만 LLM이 했다고 가정해야 하는지 판단이 어렵다는 점이다.
댓글의 분위기는 의외로 단순했다. 가장 공감을 많이 받은 반응은 “AC에 보고하고, 짧게 리뷰하고, 최저 점수 주고, 넘어가라”였다. 다른 사용자들도 읽기 불편한 paper라면 그것만으로도 reject 이유가 될 수 있고, 정책이 명시적으로 LLM 사용을 금지한다면 따로 철학적 논쟁을 벌일 필요가 없다고 말했다. 일부는 연구의 질과 작성 과정은 분리해서 봐야 한다고 했지만, 해당 track의 rule이 이미 선을 그어 두었다는 쪽이 다수였다.
이 스레드가 흥미로운 이유는 peer review의 부담이 또 하나 늘어났다는 사실을 드러내기 때문이다. 리뷰어는 원래 방법론, 실험, 재현성만 봐도 바쁘다. 그런데 이제는 텍스트의 진위성과 작성 과정까지 추정해야 한다. 더구나 외부 관찰자 입장에서 이 사례의 사실 여부를 독립적으로 검증할 방법도 거의 없다. 결국 정책은 존재하지만, 집행은 이미 과부하 상태인 리뷰어에게 떠넘겨지는 셈이다.
학회 운영 관점에서 보면 이는 단순한 “AI 글쓰기 예절” 문제가 아니다. writing quality가 policy signal이 되어 버렸고, reviewer workload와 conference governance가 직접 연결되고 있다. 앞으로 no-LLM 규정을 유지하려면, 신고 경로와 증빙 기준을 더 구조화하지 않으면 비슷한 갈등이 반복될 가능성이 크다. 출처: r/MachineLearning discussion.
Related Articles
Google이 4월 21일 Deep Research를 Gemini 3.1 Pro 기반으로 끌어올리고 MCP 연결과 Max 모드를 붙였다. 웹 검색, 업로드 파일, 라이선스 데이터 소스를 한 흐름에서 묶어야 하는 금융·생명과학 팀을 겨냥한 변화다.
Hacker News 상위권에 오른 글이 Apple 연구진의 simple self-distillation 논문을 끌어올렸다. 이 방법은 verifier model이나 reinforcement learning 없이도 코드 생성 pass@1을 높일 수 있다고 주장한다.
Stanford의 공개 CS25 강의는 Zoom, recordings, Discord를 통해 campus 밖까지 확장된 Transformer 연구 학습 채널로 다시 작동하고 있다.
Comments (0)
No comments yet. Be the first to comment!