Qwen 3.5-35B-A3B, GPT-OSS-120B 대체하는 최고 로컬 LLM으로 부상
Original: Qwen 3.5-35B-A3B is beyond expectations. It's replaced GPT-OSS-120B as my daily driver and it's 1/3 the size. View original →
Qwen 3.5-35B-A3B, 기대를 훨씬 뛰어넘다
LocalLLaMA 커뮤니티에서 Alibaba의 Qwen 3.5-35B-A3B 모델이 화제다. GPT-OSS-120B를 대체하는 일상 드라이버가 되었다는 평가가 500점 이상의 높은 점수를 받으며 주목받고 있다.
1/3 크기로 더 나은 성능
이 모델의 핵심 매력은 120B 급 모델의 1/3 크기에 불과하면서도 더 나은 성능을 발휘한다는 점이다. MoE(Mixture of Experts) 아키텍처를 채용하여 35B 전체 파라미터 중 활성화되는 파라미터는 3B에 불과하여 추론 비용이 매우 낮다.
실무 활용 사례
한 사용자는 다양한 실무 환경에서 이 모델을 활용하고 있다고 밝혔다:
- N8N 서버를 통한 메시지, 이메일, 알림의 우선순위 자동 배치
- 동적 도구 조합을 사용하는 에이전트 시스템 운영
- 전반적인 개발 작업 보조
전반적으로 개발 관련 작업에서 특히 우수한 성능을 보인다는 평가다.
Qwen 3.5 시리즈의 위상
Qwen 3.5 시리즈는 알리바바가 오픈소스로 공개한 최신 언어 모델 패밀리로, 27B 밀집 모델과 35B MoE 변형 등 다양한 크기로 제공된다. 로컬 LLM 커뮤니티에서 OpenAI의 오픈소스 모델에 필적하는 품질을 달성했다는 평가를 받고 있다.
Related Articles
Hacker News에서 주목받은 Unsloth의 Qwen3.5 가이드는 27B와 35B-A3B를 포함한 로컬 실행 경로를 메모리 요구량, thinking 제어, llama.cpp 명령 중심으로 정리한다.
llama.cpp에 Alibaba의 Qwen3.5 모델 시리즈 지원이 추가되었습니다. Dense와 MoE(Mixture-of-Experts) 변형을 모두 지원하며, 사용자들은 최신 언어 모델을 로컬에서 실행할 수 있게 되었습니다. 흥미롭게도 이 구현은 Claude Opus 4.6의 도움으로 생성되었습니다.
높은 점수를 받은 LocalLLaMA 글은 16GB M1 Pro에서 Qwen 3.5 9B가 memory recall과 기본 tool calling을 실제 agent 작업에 쓸 만큼 처리했지만, creative reasoning은 여전히 frontier model보다 뒤처졌다고 전했다.
Comments (0)
No comments yet. Be the first to comment!