r/LocalLLaMAで共有されたQwen世代別の最小モデル比較がスコア681を獲得し大きな話題に。Qwen 3.5の9Bモデルが前世代の80Bモデルを複数ベンチマークで上回り、2Bモデルが多くの7B級モデルを超える性能を示しています。
#open-source
AlibabaのQwenチームがQwen 3.5小型モデルシリーズ(0.8B〜9B)を公開。WebGPUでブラウザ実行が可能で、前世代比で大幅なベンチマーク向上を達成しました。
中国のAI研究所DeepSeekが今週中にフラッグシップモデルV4をリリースする見込みだ。1兆パラメータのネイティブマルチモーダル構成でHuawei AscendチップをメインにNvidiaとAMDを完全に排除した設計が注目される。
AIコーディング自動化ツールのOpenClawがReactを抜いてGitHub史上最多スターのソフトウェアプロジェクトになった。前例のないスター獲得速度とスターの信頼性をめぐる議論が起きている。
AlibabaのQwenチームがQwen3.5小型モデルシリーズ(0.8B、4B、9B)を公開した。9Bモデルはベンチマークでメガモデル相当の性能を発揮し、ローカル推論の敷居を大幅に下げた。
オープンソースツール「llmfit」がHacker Newsで注目を集めている。ユーザーのRAM、CPU、GPUスペックを自動検出し、最適なLLMモデルとQuantizationレベルを推奨するCLIユーティリティで、ローカルAI実行の敷居を大幅に下げる。
オープンソースツール「llmfit」がHacker Newsで注目を集めている。ユーザーのRAM、CPU、GPUスペックを自動検出し、最適なLLMモデルとQuantizationレベルを推奨するCLIユーティリティで、ローカルAI実行の敷居を大幅に下げる。
13ヶ月の驚くべき比較:2025年初頭にはDeepSeek R1をフロンティアレベルで約5 t/s実行するのに$6,000が必要だったが、今では$600のミニPCでさらに優れたモデルを同じ速度で、もしくは17-20 t/sで実行できる。
AlibabaのQwenチームがQwen 3.5 Smallをリリースした。r/LocalLLaMAで1,000以上のアップボートを記録したこの発表は、高性能小型モデルへのコミュニティの高い関心を反映している。
開発者がOSやカーネルなしにUEFIブートサービスモードで直接LLM推論を実行するUEFIアプリケーションを実装しました。トークナイザーから推論エンジンまで、依存ゼロの純粋なCで書かれています。
r/LocalLLaMAコミュニティで、Qwen 3.5-35B-A3BがGPT-OSS-120Bよりも優れた性能を示しながら、サイズは1/3に過ぎないとする投稿が高評価を得ています。
Hacker Newsで話題になったContext Modeは、Claude Codeのツール出力による文脈消費を315 KBから5.4 KBへ削減したと公表した。