DeepSeek V4:フロンティアに迫る性能を低価格で — 最大1.6兆パラメータのオープンウェイトモデル
Original: DeepSeek V4-almost on the frontier, a fraction of the price View original →
DeepSeek V4リリース
中国AI研究所DeepSeekがDeepSeek-V4-ProとV4-Flashの2モデルを公開した。いずれも100万トークンコンテキストとMITライセンスを持つMixture-of-Expertsモデルだ。
スペックと規模
V4-Proは総パラメータ1.6兆、アクティブ49Bのアーキテクチャを持ち、これまで公開されたオープンウェイトモデルの中で最大規模となった。Kimi K2.6(1.1兆)、GLM-5.1(754B)を上回り、DeepSeek V3.2(685B)の2倍以上だ。V4-Flashは軽量版で総284B、アクティブ13Bとなる。
価格こそが差別化ポイント
V4-Flashは入力0.14ドル/Mトークン、出力0.28ドル/Mトークンで、GPT-5.4 Nano(0.20ドル/1.25ドル)より安価。V4-Proは入力1.74ドル/M、出力3.48ドル/Mで、GPT-5.4(2.50ドル/15ドル)やClaude Sonnet 4.6(3ドル/15ドル)の半額以下となる。
効率性の源泉
100万トークンコンテキスト時、V4-ProのFLOPsはDeepSeek V3.2比でわずか27%、KVキャッシュは10%に抑えられている。V4-Flashはさらに進んで10%と7%を実現。この構造的効率性が低価格を可能にしている。自己申告ベンチマークではGPT-5.4やGemini 3.1 Proに約3〜6カ月の遅れがあると明記されているが、コスト優位性は多くのユースケースでこのギャップを正当化しうる。
Related Articles
HNがDeepSeek V4に飛びついた理由はきれいな発表ページではなかった。表のリンクがAPI docsで、実際の重みとbaseモデルがすでにHugging Faceに並んでいたことが一気に火を付けた。
HNはMistral Medium 3.5を単なるモデル追加として見なかった。4GPU自前運用、オープンウェイト、遠隔コーディングエージェントの組み合わせが議論の中心だった。
LocalLLaMAが真っ先に掴んだのは数字より形だった。Mistral Medium 3.5はreasoning、coding、agent作業を一つにまとめつつ、「これは自分でも回せるかもしれない」と思わせた。その感触がスレッドを熱くした。
Comments (0)
No comments yet. Be the first to comment!