Z.ai, GLM-5 공개: 744B 파라미터 오픈소스 최강 모델
Original: GLM-5 Officially Released View original →
기술 사양
GLM-5는 이전 버전에서 큰 폭으로 확장됐다. 355B 파라미터(32B 활성)에서 744B 파라미터(40B 활성)로 성장했으며, 사전학습 데이터는 23T에서 28.5T 토큰으로 확대됐다. 주목할 만한 아키텍처 추가는 DeepSeek Sparse Attention(DSA) 통합으로, 이는 장문맥 용량을 유지하면서 배포 비용을 줄인다고 보고됐다.
성능 하이라이트
모델은 여러 평가 프레임워크에서 강력한 능력을 보여준다:
- 학술 벤치마크: 추론, 코딩, 에이전트 작업에서 "모든 오픈소스 모델 중 최고 수준의 성능" 달성
- 실제 작업: CC-Bench-V2에서 GLM-5는 프론트엔드, 백엔드, 장기 작업에서 GLM-4.7을 크게 능가
- 장기 계획: Vending Bench 2에서 오픈소스 모델 중 1위, 시뮬레이션된 1년간의 비즈니스 시나리오를 최종 잔액 $4,432로 완료
무엇이 중요한가
확장을 넘어, GLM-5는 slime을 도입한다. 이는 "훈련 처리량과 효율성을 상당히 개선하는 비동기 RL 인프라"로 설명된다. 이는 중요한 과제를 해결한다: 대형 언어 모델을 위한 강화학습을 규모있게 배포하는 것.
이 모델은 "복잡한 시스템 엔지니어링과 장기 에이전트 작업"을 위해 특별히 구축됐으며, 전통적인 언어 모델과 자율 에이전트 능력 사이의 가교로 자리매김한다.
배경
Reddit의 LocalLLaMA와 singularity 커뮤니티에서 각각 730점과 289점을 기록하며 큰 관심을 받았다. Z.ai는 "compute is very tight"라고 언급하며 GPU 부족을 공개적으로 인정했다.
Related Articles
Google이 4월 21일 Deep Research를 Gemini 3.1 Pro 기반으로 끌어올리고 MCP 연결과 Max 모드를 붙였다. 웹 검색, 업로드 파일, 라이선스 데이터 소스를 한 흐름에서 묶어야 하는 금융·생명과학 팀을 겨냥한 변화다.
r/LocalLLaMA가 900점 넘게 반응한 이유는 Qwen3.6 score표가 아니라, local coding agent가 canvas bug와 wave completion issue를 스스로 찾아 고쳤다는 사용기였다.
HN이 이 저장소를 밀어 올린 이유는 또 다른 브라우저 자동화 래퍼라서가 아니다. 작업 도중 모델이 직접 브라우저 도우미 함수를 고쳐가며 진행한다는 발상이 더 크게 먹혔다.
Comments (0)
No comments yet. Be the first to comment!