Alibaba Qwen 3.5 오픈소스 출시: 3970억 파라미터 MoE, 프런티어급 성능 표방
Apache 2.0으로 공개된 대규모 오픈소스 모델
Alibaba Cloud가 2026년 2월 16일 Qwen 3.5를 공개했다. 스파스 Mixture-of-Experts(MoE) 아키텍처 기반으로 총 3970억 파라미터(활성 170억)를 갖춘 이 모델은 Apache 2.0 라이선스로 배포돼 기업·개인 모두 제한 없이 사용할 수 있다.
주요 사양
- 파라미터: 3970억 총 / 170억 활성 (MoE)
- 컨텍스트: 오픈소스 256K 토큰, 호스팅 버전 1M 토큰
- 멀티모달: 텍스트, 이미지, 영상 동시 처리
- 다국어: 201개 언어 지원
- 라이선스: Apache 2.0
프런티어급 벤치마크 주장
Alibaba는 Qwen 3.5가 GPT-5.2, Claude 4.5 등 선도 미국 독점 모델과 동등한 수준의 벤치마크 성능을 달성했다고 주장한다. 에이전틱 기능도 강화돼 커머스·엔터프라이즈 환경에서 복잡한 작업을 독립적으로 수행할 수 있다.
오픈소스 AI 경쟁에서의 의미
Qwen 3.5 출시는 오픈소스 AI 분야에서 중국 기업의 경쟁력이 빠르게 높아지고 있음을 다시 한번 보여준다. MoE 아키텍처로 활성 파라미터 수를 크게 줄여 추론 비용을 낮추면서도 최상위 성능을 목표로 한다는 점에서 Meta Llama, Mistral 등 기존 오픈소스 진영과의 경쟁이 더욱 치열해질 전망이다.
모델은 GitHub 및 Hugging Face에서 다운로드 가능하다.
출처: CNBC, Yahoo Finance
Related Articles
r/LocalLLaMA에서 Qwen 세대별 최소 모델을 비교한 결과가 681점을 획득하며 화제가 됐습니다. Qwen 3.5의 9B 모델이 이전 세대 80B 모델을 여러 벤치마크에서 능가하고, 2B 모델이 7B급 성능을 보이는 등 세대별 개선이 놀라운 수준입니다.
알리바바가 Qwen3.5를 출시했다. 3,970억 매개변수의 MoE 아키텍처를 채택하고 201개 언어를 지원하며, 오픈웨이트 버전으로 자유롭게 배포 가능하다. 알리바바는 GPT-5.2, Claude Opus 4.5, Gemini 3를 벤치마크에서 앞선다고 주장했다.
Alibaba의 Qwen 팀이 Qwen 3.5 소형 모델 시리즈(0.8B~9B)를 공개했습니다. WebGPU로 브라우저에서도 실행 가능하며, 이전 세대 대비 벤치마크 성능이 대폭 향상되었습니다.
Comments (0)
No comments yet. Be the first to comment!