Qwen3.6-35B-A3B, 35B MoE 오픈가중치와 3B 활성 파라미터·Apache 2.0 공개
Original: ⚡ Meet Qwen3.6-35B-A3B:Now Open-Source!🚀🚀 A sparse MoE model, 35B total params, 3B active. Apache 2.0 license. 🔥 Agentic coding on par with models 10x its active size 📷 Strong multimodal perception and reasoning ability 🧠 Multimodal thinking + non-thinking modes Efficient. Powerful. Versatile. Try it now👇 Blog:https://qwen.ai/blog?id=qwen3.6-35b-a3b Qwen Studio:https://chat.qwen.ai HuggingFace:https://huggingface.co/Qwen/Qwen3.6-35B-A3B ModelScope:https://modelscope.cn/models/Qwen/Qwen3.6-35B-A3B API(‘Qwen3.6-Flash’ on Model Studio):Coming soon~ Stay tuned View original →
트윗이 드러낸 것
Qwen 공식 계정은 “Meet Qwen3.6-35B-A3B: Now Open-Source”라고 쓰고, 이 모델을 35B total parameters, 3B active, Apache 2.0 license를 갖춘 sparse MoE라고 설명했다. 이 트윗이 고신호인 이유는 Alibaba가 API endpoint만 내놓은 것이 아니라, agentic coding, multimodal perception, reasoning mode를 겨냥한 모델의 open weights를 공개했다는 데 있다.
Alibaba_Qwen은 Qwen model release를 직접 올리는 공식 계정이다. 이 글은 Hugging Face feed에서도 증폭됐고, 그래서 crawl에서 강하게 잡혔다. 연결된 Qwen blog와 Hugging Face card는 트윗의 기술적 내용을 보강한다. Qwen3.6-35B-A3B는 fully open-source MoE model이며, Qwen Studio와 open-weight hosting에서 쓸 수 있고, 관련 Qwen3.6-Flash API는 Model Studio 경로로 제공될 예정이다.
벤치마크 신호
가장 강한 coding 숫자는 blog의 agentic table에 있다. Qwen은 SWE-bench Verified에서 73.4, SWE-bench Multilingual에서 67.2, Terminal-Bench 2.0에서 51.5를 제시했다. 그래서 트윗의 “active size가 10배 큰 모델과 비슷한 agentic coding”이라는 주장이 중요해진다. inference 때 활성화되는 파라미터가 3B뿐이라면, 실제 질문은 낮은 비용으로 agent behavior를 얼마나 보존할 수 있느냐가 된다.
모델은 multimodal 사용도 겨냥한다. Qwen은 perception과 reasoning, thinking 및 non-thinking mode를 강조했다. 이 조합은 screenshot을 보고, code를 추론하고, tool을 호출해야 하지만 frontier model급 serving budget은 쓰기 어려운 compact agent model 시장과 맞닿아 있다. Open weights와 Apache 2.0 licensing은 연구팀과 회사가 자기 stack 안에서 이런 주장을 직접 검증하기 쉽게 만든다.
다음 관전점은 독립 SWE-bench와 Terminal-Bench 실행이 공식 숫자를 재현하는지, dense model 대비 inference cost가 실제로 얼마나 낮은지, Qwen3.6-Flash API 제공이 open-weight 실험과 managed deployment 사이의 간극을 줄이는지다. 출처: Qwen X 게시물 · Qwen blog · Hugging Face model page
Related Articles
Google은 2026년 3월 26일 Search Live를 AI Mode가 이미 제공되는 모든 언어와 국가로 확대한다고 밝혔다. 200개+ 국가와 지역으로 넓어지는 이번 rollout은 Gemini 3.1 Flash Live를 기반으로 search를 더 conversational하고 voice-first하며 camera-aware한 경험으로 밀어 올린다.
Alibaba Qwen 팀이 7B 파라미터 통합 이미지 생성·편집 모델 Qwen-Image-2.0을 발표했다. 20B였던 v1 대비 크기를 대폭 줄이면서도 2K 해상도, 실제 텍스트 렌더링, 멀티 패널 만화 생성 등 향상된 기능을 제공한다.
xAI가 Grok Imagine의 Quality mode에서 세계 지식과 프롬프트 이해력을 강화했다고 설명했다. 회사는 복잡한 장면, 물리 법칙, 객체 관계, 브랜드·지역·문화 참조를 더 정확히 해석할 수 있다고 주장한다.
Comments (0)
No comments yet. Be the first to comment!