Qwen3.6-35B-A3B、35B MoEをApache 2.0で開き3B activeとcoding性能を提示
Original: ⚡ Meet Qwen3.6-35B-A3B:Now Open-Source!🚀🚀 A sparse MoE model, 35B total params, 3B active. Apache 2.0 license. 🔥 Agentic coding on par with models 10x its active size 📷 Strong multimodal perception and reasoning ability 🧠 Multimodal thinking + non-thinking modes Efficient. Powerful. Versatile. Try it now👇 Blog:https://qwen.ai/blog?id=qwen3.6-35b-a3b Qwen Studio:https://chat.qwen.ai HuggingFace:https://huggingface.co/Qwen/Qwen3.6-35B-A3B ModelScope:https://modelscope.cn/models/Qwen/Qwen3.6-35B-A3B API(‘Qwen3.6-Flash’ on Model Studio):Coming soon~ Stay tuned View original →
この投稿が示したこと
Qwen公式アカウントは “Meet Qwen3.6-35B-A3B: Now Open-Source” と書き、このモデルを 35B total parameters、3B active、Apache 2.0 license の sparse MoE と説明した。これは高シグナルだ。AlibabaがAPIだけでなく、agentic coding、multimodal perception、reasoning mode を狙うモデルの open weights を出したからだ。
Alibaba_Qwen はQwen model releaseを流す公式アカウントで、この投稿は Hugging Face の feed にも拾われたため crawl 上でも強く見えた。リンク先の Qwen blog と Hugging Face card は技術面を補う。Qwen3.6-35B-A3B は fully open-source MoE model で、Qwen Studio と open-weight hosting から使える。関連する Qwen3.6-Flash API は Model Studio 経由で提供される予定だ。
ベンチマークの意味
最も強い coding 数字は blog の agentic table にある。Qwenは SWE-bench Verified で 73.4、SWE-bench Multilingual で 67.2、Terminal-Bench 2.0 で 51.5を示した。したがって、投稿にある「active size が10倍大きいモデル並みの agentic coding」という主張は重要になる。推論時に有効化されるパラメータが3Bだけなら、コストを抑えながら agent behavior をどこまで保てるかが実務上の焦点になる。
このモデルは multimodal use も狙う。Qwenは perception と reasoning、thinking mode と non-thinking mode を強調している。この組み合わせは、screenshot を読み、code を推論し、tool を呼ぶ必要がある一方で frontier model 級の serving budget は使いにくい compact agent model の市場に合う。Open weights と Apache 2.0 licensing により、研究者や企業は自分たちの stack 内で主張を検証しやすくなる。
次に見るべきなのは、独立した SWE-bench と Terminal-Bench の実行が公式数字を再現するか、dense model と比べた inference cost がどれだけ下がるか、Qwen3.6-Flash API が open-weight 実験と managed deployment の距離を縮めるかだ。出典: Qwen X投稿 · Qwen blog · Hugging Face model page
Related Articles
Googleは2026年3月26日、Search Live を AI Mode がすでに利用可能なすべての言語と国へ拡大すると発表した。200超の国と地域へ広がる今回の rollout は Gemini 3.1 Flash Live を基盤に、search をより conversational で voice-first、camera-aware な体験へ押し広げる。
xAIは、Grok ImagineのQuality modeで世界知識とprompt understandingが強化されると説明した。複雑なシーン、physics、object relationship、ブランドや地域・文化参照の解釈精度が高まるという。
Googleは2026年3月26日、Search LiveをAI Mode対応の全言語・全地域へ拡大した。Voiceとcameraを使うmultimodal searchが200超の国・地域に広がり、Gemini 3.1 Flash Liveの実運用範囲も一気に拡大した。
Comments (0)
No comments yet. Be the first to comment!