Alibaba、Qwen 3.5をオープンソース公開: MoEで3970億パラメータ、フロンティア級性能を主張

Read in other languages: 한국어English
LLM Feb 22, 2026 By Insights AI 1 min read Source

Alibaba CloudのオープンソースMoEモデル

Alibaba Cloudは2026年2月16日、Qwen 3.5をApache 2.0ライセンスで公開した。スパースMixture-of-Experts(MoE)アーキテクチャを採用し、総3970億パラメータ(アクティブ170億)を持つこのモデルは、高密度モデルの数分の一の計算コストでフロンティア級の性能を目指す。

主要仕様

  • パラメータ: 総3970億 / アクティブ170億(MoE)
  • コンテキスト: オープンソース256Kトークン、ホスト版1Mトークン
  • マルチモーダル: テキスト・画像・映像のネイティブ処理
  • 多言語: 201言語対応
  • ライセンス: Apache 2.0

ベンチマークの主張

AlibabaはQwen 3.5がGPT-5.2、Claude 4.5などの主要米国商用モデルと同等の性能を達成したと主張する。エージェント機能も強化され、コマースやエンタープライズ環境での自律タスク実行が可能だ。

オープンソースAI競争への影響

Qwen 3.5は、オープンソースAIにおける中国の急速な競争力強化を改めて示す。MoE設計による推論コスト低減と最高水準性能の両立は、Meta Llama、Mistral、Hugging Faceエコシステムとの競争をさらに激化させる見通しだ。

モデルはGitHubおよびHugging Faceで公開中。

出典: CNBCYahoo Finance

Share:

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.