Alibaba, Qwen3.5 소형 모델 공개: 9B가 GPT-oss 20B~120B 수준 성능 달성
Original: Breaking: The small qwen3.5 models have been dropped View original →
개요
Alibaba의 Qwen 팀이 Qwen3.5 소형 모델 시리즈를 공개했다. 이번 릴리스에는 0.8B, 4B, 9B 세 가지 크기의 모델이 포함되어 있으며, Hugging Face에서 즉시 다운로드 가능하다.
주요 성능
커뮤니티 벤치마크에 따르면 Qwen3.5 9B 모델은 GPT-oss 20B~120B 수준의 성능을 보여준다. 이는 파라미터 수 대비 예외적인 효율성으로, 저사양 GPU를 가진 사용자들도 고품질 추론이 가능해졌다는 점에서 큰 주목을 받고 있다.
0.8B 모델은 모바일 기기 배포를 염두에 두고 개발되었으며, unsloth와 커뮤니티 개발자들이 GGUF 양자화 버전을 빠르게 제공했다.
커뮤니티 반응
LocalLLaMA 커뮤니티에서는 릴리스 직후부터 다양한 양자화 버전이 업로드되었다. 사용자들은 Qwen3.5 시리즈의 thinking 모드에서 과도한 추론으로 인한 정확도 저하 현상에 주의할 것을 권고하고 있다. 온도(temperature)를 0.45 내외로 설정하고 thinking 모드를 끄는 것이 최적의 결과를 낸다는 팁이 공유됐다. 또한 bf16 KV 캐시(f16이 아님)가 필요하다는 기술적 주의 사항도 빠르게 공유됐다.
가용성
Qwen3.5 모델은 Hugging Face에서 다양한 양자화 버전으로 제공되며, unsloth를 통한 GGUF 포맷도 즉시 이용 가능하다.
Related Articles
Alibaba의 Qwen 팀이 Qwen 3.5 소형 모델 시리즈(0.8B~9B)를 공개했습니다. WebGPU로 브라우저에서도 실행 가능하며, 이전 세대 대비 벤치마크 성능이 대폭 향상되었습니다.
r/LocalLLaMA 커뮤니티에서 Alibaba의 Qwen 공식 채팅 인터페이스에서 Qwen3.5 모델이 목격됐다는 제보가 올라왔다. Qwen3 시리즈 이후 다음 세대 LLM 출시가 임박했다는 신호로 해석되고 있다.
알리바바가 Qwen3.5를 출시했다. 3,970억 매개변수의 MoE 아키텍처를 채택하고 201개 언어를 지원하며, 오픈웨이트 버전으로 자유롭게 배포 가능하다. 알리바바는 GPT-5.2, Claude Opus 4.5, Gemini 3를 벤치마크에서 앞선다고 주장했다.
Comments (0)
No comments yet. Be the first to comment!