Qwen 3.5-35B-A3B、GPT-OSS-120Bを超えてデイリードライバーに——サイズは1/3
Original: Qwen 3.5-35B-A3B is beyond expectations. It's replaced GPT-OSS-120B as my daily driver and it's 1/3 the size. View original →
Qwen 3.5-35B-A3B、期待を大幅に上回る
LocalLLaMAコミュニティで、AlibabaのQwen 3.5-35B-A3Bが注目を集めている。GPT-OSS-120Bを代替するデイリードライバーになったと主張する投稿が高い評価を得ている。
MoEアーキテクチャ:35Bパラメータ、活性化は3B
Mixture of Experts(MoE)アーキテクチャを採用しており、総パラメータ数は35Bだが、推論時に活性化されるのは約3Bにとどまる。これにより、同等サイズの密なモデルと比べて推論コストが大幅に低下する。
実際の活用シーン
元の投稿者が紹介した実務での利用例:
- N8N経由のメッセージ・メール・アラートの優先度付き自動バッチ処理
- 動的ツール選択を用いたエージェントシステム
- 全般的な開発作業のアシスタント
特にコーディングや推論タスクで、その規模を大きく超えた性能を発揮するとの評価が多い。
Qwen 3.5シリーズの位置づけ
Qwen 3.5シリーズはAlibabaが公開する最新のオープンソースモデルファミリーで、35B MoEバリアントはその中でも特に注目されている。中国のオープンソースモデルが西洋の競合モデルに匹敵する、あるいは凌駕するという傾向が続いており、Qwen 3.5-35B-A3Bはその代表例といえる。
Related Articles
r/LocalLLaMAで注目を集めた投稿は、llama-swapを使ってローカルLLMの多モデル運用を整理した具体例を共有。単一バイナリ、YAML設定、systemd運用、パラメータフィルタが実務上の利点として語られた。
Hacker Newsで注目されたUnslothのQwen3.5ガイドは、27Bや35B-A3Bをローカル環境で動かすためのメモリ要件、thinking制御、llama.cpp手順を実務向けにまとめている。
13ヶ月の驚くべき比較:2025年初頭にはDeepSeek R1をフロンティアレベルで約5 t/s実行するのに$6,000が必要だったが、今では$600のミニPCでさらに優れたモデルを同じ速度で、もしくは17-20 t/sで実行できる。
Comments (0)
No comments yet. Be the first to comment!