Google DeepMind、Apache 2.0 で Gemma 4 を公開
Original: Meet Gemma 4: our new family of open models you can run on your own hardware. Built for advanced reasoning and agentic workflows, we're releasing them under an Apache 2.0 license. Here's what's new View original →
何が起きたのか
Google DeepMind は 2026年4月2日、X で Gemma 4 を発表し、自前の hardware 上で動かせる open model family を Apache 2.0 license で提供すると述べた。同日公開された Google Developers Blog では、Gemma 4 を単なる cloud 向けの model release ではなく、on-device AI development のための toolkit として位置づけている。Google は Gemma 4 について、multi-step planning、autonomous action、offline code generation、audio-visual processing、そして 140超の言語対応を強調した。
今回の発表で重要なのは、model と deployment stack が同時に提示されたことだ。Google は Android AICore、Google AI Edge Gallery、LiteRT-LM をあわせて紹介し、mobile、desktop、web、edge device にまたがる実装経路をまとめて示した。これは単なる weights の公開ではなく、開発者がすぐに試せる形に寄せた launch だと言える。
重要なポイント
- Gemma 4 は Apache 2.0 で公開され、商用実験のハードルを下げている。
- Google は Agent Skills を通じて、知識検索、要約、可視化、他モデル連携などの multi-step workflow を device 上で動かせると示した。
- LiteRT-LM は constrained decoding、dynamic context、低メモリ実行を打ち出し、より広い hardware への展開を狙っている。
この動きが重要なのは、open model 競争の評価軸が download 可能かどうかだけではなくなっているからだ。実際には、開発者がどれだけ早く mobile app、desktop app、IoT device に組み込めるかが採用を左右する。Google は今回、その gap を埋めるために model と tooling を同時に届けようとしている。
さらに、agentic AI が data center 専用ではなく edge 側へ広がっていることも見逃せない。Google は Gemma 4 を単なる応答生成モデルではなく、より複雑な workflow を処理する基盤として描き、CLI や Python bindings まで用意した。これは open model 市場が benchmark の数字だけでなく、packaging と distribution quality でも競われる段階に入ったことを示している。
開発者にとって次の焦点は、tool calling の安定性、memory requirement、platform support の幅が実運用でどこまで通用するかだ。Google はまさにそこを前面に出している。原文: Google Developers Blog.
Related Articles
Google DeepMindはGemini 3 researchを基盤にしたopen model familyであるGemma 4を公開した。E2B・E4Bはedge device向け、26B・31Bはconsumer GPU前提のlocal workflow向けで、function calling、multimodal reasoning、140言語対応を前面に出している。
LocalLLaMA では、Gemma 4 の初期トラブルの一部は model 自体ではなく llama.cpp runtime bugs や support lag に起因する可能性があるという指摘が出ている。複数の pull request と user report が、early benchmark を読み替える必要性を示している。
Anthropicは2026年4月3日、AIモデル間の行動差分を表面化させる新しいFellows研究を紹介した。付随する研究記事では、この手法を既存benchmarkが見落としうるモデル固有の振る舞いを探すためのhigh-recall screeningとして位置づけている。
Comments (0)
No comments yet. Be the first to comment!