Qwen 팀, GPQA·HLE 벤치마크 데이터 품질에 심각한 문제 있음을 공식 확인
Original: The Qwen team verified that there are serious problems with the data quality of the GPQA and HLE test sets. View original →
인기 벤치마크의 데이터 품질 문제
AI 모델 성능 평가에 널리 사용되는 GPQA와 HLE(Humanity's Last Exam) 벤치마크 데이터셋에 심각한 품질 문제가 있다는 사실이 Qwen 연구팀의 공식 논문을 통해 확인됐습니다. 이 소식은 AI 모델 평가의 신뢰성에 근본적인 의문을 제기하고 있습니다.
발견의 배경
이 문제는 약 한 달 전 한 연구자가 DeepSeek 모델을 극한까지 최적화하는 실험 "DeepSeek-Overclock"을 진행하던 중 처음 발견됐습니다. 최적화된 모델이 계속 실패하는 이유를 로그에서 추적한 결과, 모델이 환각(hallucination)을 일으키는 것이 아니라 주어진 "정답" 레이블과 일치하지 않는 기술적으로 정확한 답을 도출하고 있었습니다.
연구자가 Python 스크립트를 작성해 수학적으로 검증한 결과, 데이터셋 자체의 정답 레이블이 틀린 경우가 다수 발견됐습니다. 이후 Qwen 팀이 arXiv에 발표한 논문(2602.13964v2)이 이를 공식적으로 확인했습니다.
구체적인 문제들
논문에 따르면 HLE 데이터셋의 문제는 여러 층위에 걸쳐 있습니다. OCR(광학문자인식)으로 문항을 생성하는 과정에서 오류가 발생했고, 일부 "표준 정답"이 실제로는 틀린 경우도 있으며, 연구로 검증이 가능한 문항은 전체의 51.3%에 불과하다는 분석도 있습니다. 일부 문항은 근본적으로 오류가 있거나 검증 자체가 불가능한 구조로 설계됐습니다.
AI 평가 신뢰성에 미치는 영향
이 발견은 현재 AI 모델 성능 비교에 사용되는 벤치마크들의 신뢰성 전반에 의문을 제기합니다. 모델들이 실제로 문제를 더 잘 풀게 된 것인지, 아니면 단순히 잘못된 데이터셋의 오류를 잘 외운 것인지 구분하기 어려워지기 때문입니다. AI 커뮤니티에서는 더 엄격한 벤치마크 데이터 검증 프로세스가 필요하다는 목소리가 높아지고 있습니다.
Related Articles
Microsoft Research는 2026년 2월 26일 CORPGEN을 발표했다. 실제 사무 환경의 동시 다중 업무를 반영한 평가에서, 높은 부하 구간에서 기준 에이전트 대비 최대 3.5배 높은 완료율을 제시했다.
Hacker News에서 주목받은 Unsloth의 Qwen3.5 가이드는 27B와 35B-A3B를 포함한 로컬 실행 경로를 메모리 요구량, thinking 제어, llama.cpp 명령 중심으로 정리한다.
고득점 r/MachineLearning 글은 David Noel Ng의 장문 blog를 가리키며, Qwen2-72B의 중간 7개 layer block을 복제하는 방식만으로 leaderboard 상단에 올랐다는 주장과 circuit-like 구조 해석을 다시 불러냈다.
Comments (0)
No comments yet. Be the first to comment!