Google DeepMind、Gemma 4の初週10M downloadsを公表
Original: Gemma 4 punches above its weight, outperforming models 10x its size without the need for massive compute. With 10M+ downloads in its first week and 500M+ for the Gemma family overall, we’re excited to see this level of engagement within the open research community. View original →
Google DeepMindは2026年4月9日のX postで、Gemma 4が初週で10M downloadsを超え、Gemma family全体では500M downloadsを突破したと述べた。GoogleはGemma 4について、massive computeなしでも自分の10x大きいmodelを上回ると主張し、“punches above its weight”という表現で性能対効率を強調した。あわせて公開したGoogle blog postでは、Gemma 4をこれまでで最も高性能なopen modelsであり、advanced reasoningとagentic workflowsのために設計したfamilyだと説明している。
技術的な打ち出しは単一checkpointでは終わらない。GoogleによるとGemma 4はE2B、E4B、26B MoE、31B Denseの4サイズで提供される。大きいmodelは同クラスで最先端の性能を狙い、小さいE2BとE4Bはedgeやmobile hardwareでのmultimodal処理とlow-latency活用を重視する。さらにGoogleは、Android devices、laptop GPUs、developer workstations、acceleratorsまで幅広いhardware上で実行とfine-tuningがしやすいようfamilyを設計したとしている。ブログではGemmaverseがすでに100,000超のvariantへ拡大したとも説明した。
単なるreleaseではなくopen-model distributionの指標
初週10M downloadsという数字は、Gemmaがローカルに配備でき、しかもreasoning workloadにも耐えられるopen modelの標準候補に近づいていることを示す。Googleが主張するleaderboard上の競争力とcommunity variantの増加速度を合わせて見ると、このpostは単なるadoption milestoneではなく、Googleのopen-model戦略が実際のdistributionを獲得し始めた証拠として読める。市場全体で見ても、強いbenchmarkだけでなく、downstream usabilityまで示せるかどうかが今後ますます重要になる。
Related Articles
r/artificialの投稿はGoogle DeepMindのGemma 4公開を取り上げた。Gemma 4はApache 2.0の下でadvanced reasoningとagentic workflow向け機能をまとめたopen-weight familyで、Googleは4つのサイズ、larger modelで最大256K context、そしてHugging Faceからllama.cppまでのday-one supportを打ち出している。
Google DeepMindの2026年4月2日のX投稿は、Gemma 4をreasoningとagentic workflows向けの新しいopen model familyとして紹介した。GoogleはE2B、E4B、26B MoE、31B Denseを公開し、native function calling、structured JSON、長いcontext windowを主要な特徴として打ち出した。
Google DeepMindはGemini 3 researchを基盤にしたopen model familyであるGemma 4を公開した。E2B・E4Bはedge device向け、26B・31Bはconsumer GPU前提のlocal workflow向けで、function calling、multimodal reasoning、140言語対応を前面に出している。
Comments (0)
No comments yet. Be the first to comment!