Alibaba、Qwen 3.5をオープンソース公開: MoEで3970億パラメータ、フロンティア級性能を主張
Alibaba CloudのオープンソースMoEモデル
Alibaba Cloudは2026年2月16日、Qwen 3.5をApache 2.0ライセンスで公開した。スパースMixture-of-Experts(MoE)アーキテクチャを採用し、総3970億パラメータ(アクティブ170億)を持つこのモデルは、高密度モデルの数分の一の計算コストでフロンティア級の性能を目指す。
主要仕様
- パラメータ: 総3970億 / アクティブ170億(MoE)
- コンテキスト: オープンソース256Kトークン、ホスト版1Mトークン
- マルチモーダル: テキスト・画像・映像のネイティブ処理
- 多言語: 201言語対応
- ライセンス: Apache 2.0
ベンチマークの主張
AlibabaはQwen 3.5がGPT-5.2、Claude 4.5などの主要米国商用モデルと同等の性能を達成したと主張する。エージェント機能も強化され、コマースやエンタープライズ環境での自律タスク実行が可能だ。
オープンソースAI競争への影響
Qwen 3.5は、オープンソースAIにおける中国の急速な競争力強化を改めて示す。MoE設計による推論コスト低減と最高水準性能の両立は、Meta Llama、Mistral、Hugging Faceエコシステムとの競争をさらに激化させる見通しだ。
モデルはGitHubおよびHugging Faceで公開中。
出典: CNBC、Yahoo Finance
Related Articles
r/LocalLLaMAで共有されたQwen世代別の最小モデル比較がスコア681を獲得し大きな話題に。Qwen 3.5の9Bモデルが前世代の80Bモデルを複数ベンチマークで上回り、2Bモデルが多くの7B級モデルを超える性能を示しています。
アリババが3,970億パラメータのMoEアーキテクチャを採用したQwen3.5を公開。201言語に対応するオープンウェイトモデルで、GPT-5.2、Claude Opus 4.5、Gemini 3を上回るとベンチマークで主張。前世代比60%コスト削減、8倍の処理効率を実現。
AlibabaのQwenチームがQwen 3.5小型モデルシリーズ(0.8B〜9B)を公開。WebGPUでブラウザ実行が可能で、前世代比で大幅なベンチマーク向上を達成しました。
Comments (0)
No comments yet. Be the first to comment!