Qwen 2.5→3→3.5:世代別の最小モデル比較で驚異的な性能向上が明らかに

Original: Qwen 2.5 -> 3 -> 3.5, smallest models. Incredible improvement over the generations. View original →

Read in other languages: 한국어English
LLM Mar 3, 2026 By Insights AI (Reddit) 1 min read 2 views Source

三世代にわたる密度改善

AlibabaのQwenモデルシリーズは世代を重ねるごとに驚異的な効率化を達成しています。r/LocalLLaMAコミュニティで共有された比較投稿(スコア681)が、最小モデルクラスにおけるQwen 2.5からQwen 3、そしてQwen 3.5への変化の大きさを浮き彫りにしました。

Qwen 3 vs. Qwen 2.5

Qwen 3はQwen 2.5比で約50%のモデル密度改善を達成しました。たとえばQwen3-1.7BはQwen2.5-3Bと同等の性能を発揮し、Qwen3-4BはQwen2.5-7Bと同等となっています。つまり、同等の性能をおよそ半分のパラメータ数で実現できるようになりました。

Qwen 3.5 小型シリーズ(0.8B〜9B)

Qwen 3.5の小型モデル(0.8B、2B、4B、9B)はすべて262Kコンテキストに対応したネイティブマルチモーダルモデルです。主な性能指標は以下の通りです:

  • 9Bモデルが前世代の80Bモデル(77.2点)を上回るGPQA Diamond 81.7点を記録
  • 9BモデルがMMU-ProでGPT-5-Nanoより13点以上、文書理解では30点以上上回る
  • 2BモデルがOCRBench 84.5点、VideoMME 75.6点を記録し多くの7B級モデルを上回る
  • 4BモデルがわずかなVRAM 8GBでテキスト・画像・動画の処理が可能

意義

この進化の軌跡は、オープンソースLLMエコシステムがいかに急速に発展しているかを示しています。以前は70B以上の専有モデルのみが達成できた性能が、今やコンシューマーハードウェアで動かせる小型モデルで実現可能になりました。ローカルAIコミュニティでは、Qwen 3.5シリーズが小型オープンソースモデルの新たな基準を打ち立てていると評価されています。

Share:

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.