Z.ai, GLM-5 공개: 744B 파라미터 오픈소스 최강 모델

Original: GLM-5 Officially Released View original →

Read in other languages: English日本語
LLM Feb 12, 2026 By Insights AI (Reddit) 1 min read Source

기술 사양

GLM-5는 이전 버전에서 큰 폭으로 확장됐다. 355B 파라미터(32B 활성)에서 744B 파라미터(40B 활성)로 성장했으며, 사전학습 데이터는 23T에서 28.5T 토큰으로 확대됐다. 주목할 만한 아키텍처 추가는 DeepSeek Sparse Attention(DSA) 통합으로, 이는 장문맥 용량을 유지하면서 배포 비용을 줄인다고 보고됐다.

성능 하이라이트

모델은 여러 평가 프레임워크에서 강력한 능력을 보여준다:

  • 학술 벤치마크: 추론, 코딩, 에이전트 작업에서 "모든 오픈소스 모델 중 최고 수준의 성능" 달성
  • 실제 작업: CC-Bench-V2에서 GLM-5는 프론트엔드, 백엔드, 장기 작업에서 GLM-4.7을 크게 능가
  • 장기 계획: Vending Bench 2에서 오픈소스 모델 중 1위, 시뮬레이션된 1년간의 비즈니스 시나리오를 최종 잔액 $4,432로 완료

무엇이 중요한가

확장을 넘어, GLM-5는 slime을 도입한다. 이는 "훈련 처리량과 효율성을 상당히 개선하는 비동기 RL 인프라"로 설명된다. 이는 중요한 과제를 해결한다: 대형 언어 모델을 위한 강화학습을 규모있게 배포하는 것.

이 모델은 "복잡한 시스템 엔지니어링과 장기 에이전트 작업"을 위해 특별히 구축됐으며, 전통적인 언어 모델과 자율 에이전트 능력 사이의 가교로 자리매김한다.

배경

Reddit의 LocalLLaMA와 singularity 커뮤니티에서 각각 730점과 289점을 기록하며 큰 관심을 받았다. Z.ai는 "compute is very tight"라고 언급하며 GPU 부족을 공개적으로 인정했다.

Share:

Related Articles

Karpathy, 단일 GPU nanochat 실험을 자동화하는 autoresearch 공개
LLM sources.twitter 3d ago 1 min read

Andrej Karpathy가 축소형 nanochat training loop를 AI agent가 overnight로 반복 실험할 수 있게 하는 autoresearch repo를 공개했다. 고정 5분 실험, Git branch, validation loss 기반 선택을 묶어 agent 연구를 closed-loop workflow로 바꾸려는 시도다.

LLM sources.twitter 1d ago 1 min read

NVIDIA AI Developer는 2026년 3월 11일 Nemotron 3 Super를 공개하며, 12B active parameters를 사용하는 오픈 120B-parameter hybrid MoE 모델과 native 1M-token context를 강조했다. NVIDIA는 이 모델이 이전 Nemotron Super 대비 최대 5배 높은 throughput으로 agentic workload를 겨냥한다고 설명했다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.