Qwen 2.5→3→3.5:世代別の最小モデル比較で驚異的な性能向上が明らかに
Original: Qwen 2.5 -> 3 -> 3.5, smallest models. Incredible improvement over the generations. View original →
三世代にわたる密度改善
AlibabaのQwenモデルシリーズは世代を重ねるごとに驚異的な効率化を達成しています。r/LocalLLaMAコミュニティで共有された比較投稿(スコア681)が、最小モデルクラスにおけるQwen 2.5からQwen 3、そしてQwen 3.5への変化の大きさを浮き彫りにしました。
Qwen 3 vs. Qwen 2.5
Qwen 3はQwen 2.5比で約50%のモデル密度改善を達成しました。たとえばQwen3-1.7BはQwen2.5-3Bと同等の性能を発揮し、Qwen3-4BはQwen2.5-7Bと同等となっています。つまり、同等の性能をおよそ半分のパラメータ数で実現できるようになりました。
Qwen 3.5 小型シリーズ(0.8B〜9B)
Qwen 3.5の小型モデル(0.8B、2B、4B、9B)はすべて262Kコンテキストに対応したネイティブマルチモーダルモデルです。主な性能指標は以下の通りです:
- 9Bモデルが前世代の80Bモデル(77.2点)を上回るGPQA Diamond 81.7点を記録
- 9BモデルがMMU-ProでGPT-5-Nanoより13点以上、文書理解では30点以上上回る
- 2BモデルがOCRBench 84.5点、VideoMME 75.6点を記録し多くの7B級モデルを上回る
- 4BモデルがわずかなVRAM 8GBでテキスト・画像・動画の処理が可能
意義
この進化の軌跡は、オープンソースLLMエコシステムがいかに急速に発展しているかを示しています。以前は70B以上の専有モデルのみが達成できた性能が、今やコンシューマーハードウェアで動かせる小型モデルで実現可能になりました。ローカルAIコミュニティでは、Qwen 3.5シリーズが小型オープンソースモデルの新たな基準を打ち立てていると評価されています。
Related Articles
AlibabaのQwenチームがQwen 3.5小型モデルシリーズ(0.8B〜9B)を公開。WebGPUでブラウザ実行が可能で、前世代比で大幅なベンチマーク向上を達成しました。
Alibabaは2月16日にQwen 3.5をApache 2.0で公開した。3970億パラメータ(アクティブ170億)のスパースMoEアーキテクチャ、256Kコンテキスト、ネイティブマルチモーダル対応を備え、GPT-5.2と同等のベンチマーク性能を主張する。
アリババが3,970億パラメータのMoEアーキテクチャを採用したQwen3.5を公開。201言語に対応するオープンウェイトモデルで、GPT-5.2、Claude Opus 4.5、Gemini 3を上回るとベンチマークで主張。前世代比60%コスト削減、8倍の処理効率を実現。
Comments (0)
No comments yet. Be the first to comment!