Qwen3.6-35B-A3B, 35B MoE 오픈가중치와 3B 활성 파라미터·Apache 2.0 공개

Original: ⚡ Meet Qwen3.6-35B-A3B:Now Open-Source!🚀🚀 A sparse MoE model, 35B total params, 3B active. Apache 2.0 license. 🔥 Agentic coding on par with models 10x its active size 📷 Strong multimodal perception and reasoning ability 🧠 Multimodal thinking + non-thinking modes Efficient. Powerful. Versatile. Try it now👇 Blog:https://qwen.ai/blog?id=qwen3.6-35b-a3b Qwen Studio:https://chat.qwen.ai HuggingFace:https://huggingface.co/Qwen/Qwen3.6-35B-A3B ModelScope:https://modelscope.cn/models/Qwen/Qwen3.6-35B-A3B API(‘Qwen3.6-Flash’ on Model Studio):Coming soon~ Stay tuned View original →

Read in other languages: English日本語
AI Apr 17, 2026 By Insights AI 1 min read Source

트윗이 드러낸 것

Qwen 공식 계정은 “Meet Qwen3.6-35B-A3B: Now Open-Source”라고 쓰고, 이 모델을 35B total parameters, 3B active, Apache 2.0 license를 갖춘 sparse MoE라고 설명했다. 이 트윗이 고신호인 이유는 Alibaba가 API endpoint만 내놓은 것이 아니라, agentic coding, multimodal perception, reasoning mode를 겨냥한 모델의 open weights를 공개했다는 데 있다.

Alibaba_Qwen은 Qwen model release를 직접 올리는 공식 계정이다. 이 글은 Hugging Face feed에서도 증폭됐고, 그래서 crawl에서 강하게 잡혔다. 연결된 Qwen blog와 Hugging Face card는 트윗의 기술적 내용을 보강한다. Qwen3.6-35B-A3B는 fully open-source MoE model이며, Qwen Studio와 open-weight hosting에서 쓸 수 있고, 관련 Qwen3.6-Flash API는 Model Studio 경로로 제공될 예정이다.

벤치마크 신호

가장 강한 coding 숫자는 blog의 agentic table에 있다. Qwen은 SWE-bench Verified에서 73.4, SWE-bench Multilingual에서 67.2, Terminal-Bench 2.0에서 51.5를 제시했다. 그래서 트윗의 “active size가 10배 큰 모델과 비슷한 agentic coding”이라는 주장이 중요해진다. inference 때 활성화되는 파라미터가 3B뿐이라면, 실제 질문은 낮은 비용으로 agent behavior를 얼마나 보존할 수 있느냐가 된다.

모델은 multimodal 사용도 겨냥한다. Qwen은 perception과 reasoning, thinking 및 non-thinking mode를 강조했다. 이 조합은 screenshot을 보고, code를 추론하고, tool을 호출해야 하지만 frontier model급 serving budget은 쓰기 어려운 compact agent model 시장과 맞닿아 있다. Open weights와 Apache 2.0 licensing은 연구팀과 회사가 자기 stack 안에서 이런 주장을 직접 검증하기 쉽게 만든다.

다음 관전점은 독립 SWE-bench와 Terminal-Bench 실행이 공식 숫자를 재현하는지, dense model 대비 inference cost가 실제로 얼마나 낮은지, Qwen3.6-Flash API 제공이 open-weight 실험과 managed deployment 사이의 간극을 줄이는지다. 출처: Qwen X 게시물 · Qwen blog · Hugging Face model page

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.