Alibaba Qwen 3.5 오픈소스 출시: 3970억 파라미터 MoE, 프런티어급 성능 표방

Read in other languages: English日本語
LLM Feb 22, 2026 By Insights AI 1 min read Source

Apache 2.0으로 공개된 대규모 오픈소스 모델

Alibaba Cloud가 2026년 2월 16일 Qwen 3.5를 공개했다. 스파스 Mixture-of-Experts(MoE) 아키텍처 기반으로 총 3970억 파라미터(활성 170억)를 갖춘 이 모델은 Apache 2.0 라이선스로 배포돼 기업·개인 모두 제한 없이 사용할 수 있다.

주요 사양

  • 파라미터: 3970억 총 / 170억 활성 (MoE)
  • 컨텍스트: 오픈소스 256K 토큰, 호스팅 버전 1M 토큰
  • 멀티모달: 텍스트, 이미지, 영상 동시 처리
  • 다국어: 201개 언어 지원
  • 라이선스: Apache 2.0

프런티어급 벤치마크 주장

Alibaba는 Qwen 3.5가 GPT-5.2, Claude 4.5 등 선도 미국 독점 모델과 동등한 수준의 벤치마크 성능을 달성했다고 주장한다. 에이전틱 기능도 강화돼 커머스·엔터프라이즈 환경에서 복잡한 작업을 독립적으로 수행할 수 있다.

오픈소스 AI 경쟁에서의 의미

Qwen 3.5 출시는 오픈소스 AI 분야에서 중국 기업의 경쟁력이 빠르게 높아지고 있음을 다시 한번 보여준다. MoE 아키텍처로 활성 파라미터 수를 크게 줄여 추론 비용을 낮추면서도 최상위 성능을 목표로 한다는 점에서 Meta Llama, Mistral 등 기존 오픈소스 진영과의 경쟁이 더욱 치열해질 전망이다.

모델은 GitHub 및 Hugging Face에서 다운로드 가능하다.

출처: CNBC, Yahoo Finance

Share:

Related Articles

LLM Reddit Mar 3, 2026 1 min read

r/LocalLLaMA에서 Qwen 세대별 최소 모델을 비교한 결과가 681점을 획득하며 화제가 됐습니다. Qwen 3.5의 9B 모델이 이전 세대 80B 모델을 여러 벤치마크에서 능가하고, 2B 모델이 7B급 성능을 보이는 등 세대별 개선이 놀라운 수준입니다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.