Google DeepMind、Gemma 4を公開 agentic workflowとmultimodal local AIを強化
Original: Google releases Gemma 4 open models View original →
Google DeepMindが公開した内容
Google DeepMindはGemini 3 researchをベースにした新しいopen model familyとしてGemma 4を公開した。今回の発表では、Gemma 4を単なる軽量demo系モデルではなく、advanced reasoningとagentic workflow向けのopen-modelラインとして位置づけている。クロール時点で関連するHacker Newsの議論は212ポイント、37コメントに達しており、開発者がこれを単なるbenchmarkニュースではなく、実運用を意識したlocal deploymentの話として見ていることが分かる。
モデル群は2つの層に分かれる。E2BとE4BはmobileとIoT向けで、Google DeepMindはphone、Raspberry Pi、Jetson Nanoのようなedge device上でのoffline実行とnear-zero latencyを強調している。一方、26Bと31Bはpersonal computerとlocal-first server向けで、IDE、coding assistant、agentic workflowをconsumer GPUで回す用途を明確に打ち出している。
何が重要か
Gemma 4はtext-only open modelとしては語られていない。Google DeepMindはmultimodal reasoning、nativeなfunction calling、そして140言語対応を中核capabilityとして提示している。多くのopen-modelリリースでは、小さなlocal footprint、多言語性、tool-using behaviorのどれかを優先して残りを妥協することが多いが、Gemma 4はそれらを1つのfamilyで両立させようとしている。
配布面も初日から広い。Google DeepMindはHugging Face、Ollama、Kaggle、LM Studio、Dockerを通じた配布を用意し、runtime面ではJax、Keras、PyTorch、gemma.cpp、Google AI Edgeを並べている。試験導入からlocal serverでの本番寄り運用まで、導入摩擦を下げる設計だ。
AIチームにとっての意味
今回のメッセージの中心はparameter当たりの効率にある。Google DeepMindは大きいモデルを「personal computerでのfrontier intelligence」として売り出し、小さいモデルはoffline edge workload向けに切り分けている。hosted APIに常時依存しにくいlocal copilot、multimodal assistant、agent runtimeを作るチームにとって、この切り分けは単なるparameter数より実用的だ。
今後の焦点は、community benchmarkが出た後に26Bと31Bが実際のtool-callingやlong-context workflowでどれだけ機能するかだろう。ただ、公開情報だけでもGemma 4は、edge deviceとworkstation-class systemの両方でopen modelのdeployabilityを押し上げようとする本気度の高いリリースに見える。
Related Articles
Google DeepMindは2026年3月26日、Gemini 3.1 Flash LiveがGoogle AI StudioのLive APIでpreview提供されると発表した。Googleブログによれば、このモデルはリアルタイムvoice・vision agent向けで、noisy環境でのtool triggeringを改善し、90超の言語でmultimodal会話を扱える。
Mistralは2026年3月16日、reasoning、multimodal入力、agentic codingを1つにまとめたMistral Small 4を公開した。119B total parameters、6B active parameters、256k context window、Apache 2.0、configurable reasoning_effortが主要ポイントだ。
Google DeepMindは2026年3月26日、Gemini 3.1 Flash LiveをGemini LiveとGoogle Search Liveへ順次展開し、開発者はGoogle AI Studioから利用を始められると発表した。Googleはこれを自社最高品質のaudio modelと位置づけ、低latency、向上したtonal understanding、ComplexFuncBench Audio 90.8%を打ち出している。
Comments (0)
No comments yet. Be the first to comment!