Google DeepMind、Gemma 4を公開 agentic workflowとmultimodal local AIを強化

Original: Google releases Gemma 4 open models View original →

Read in other languages: 한국어English
LLM Apr 2, 2026 By Insights AI (HN) 1 min read Source

Google DeepMindが公開した内容

Google DeepMindはGemini 3 researchをベースにした新しいopen model familyとしてGemma 4を公開した。今回の発表では、Gemma 4を単なる軽量demo系モデルではなく、advanced reasoningとagentic workflow向けのopen-modelラインとして位置づけている。クロール時点で関連するHacker Newsの議論は212ポイント37コメントに達しており、開発者がこれを単なるbenchmarkニュースではなく、実運用を意識したlocal deploymentの話として見ていることが分かる。

モデル群は2つの層に分かれる。E2BE4BはmobileとIoT向けで、Google DeepMindはphone、Raspberry Pi、Jetson Nanoのようなedge device上でのoffline実行とnear-zero latencyを強調している。一方、26B31Bはpersonal computerとlocal-first server向けで、IDE、coding assistant、agentic workflowをconsumer GPUで回す用途を明確に打ち出している。

何が重要か

Gemma 4はtext-only open modelとしては語られていない。Google DeepMindはmultimodal reasoning、nativeなfunction calling、そして140言語対応を中核capabilityとして提示している。多くのopen-modelリリースでは、小さなlocal footprint、多言語性、tool-using behaviorのどれかを優先して残りを妥協することが多いが、Gemma 4はそれらを1つのfamilyで両立させようとしている。

配布面も初日から広い。Google DeepMindはHugging FaceOllamaKaggleLM StudioDockerを通じた配布を用意し、runtime面ではJaxKerasPyTorchgemma.cpp、Google AI Edgeを並べている。試験導入からlocal serverでの本番寄り運用まで、導入摩擦を下げる設計だ。

AIチームにとっての意味

今回のメッセージの中心はparameter当たりの効率にある。Google DeepMindは大きいモデルを「personal computerでのfrontier intelligence」として売り出し、小さいモデルはoffline edge workload向けに切り分けている。hosted APIに常時依存しにくいlocal copilot、multimodal assistant、agent runtimeを作るチームにとって、この切り分けは単なるparameter数より実用的だ。

今後の焦点は、community benchmarkが出た後に26Bと31Bが実際のtool-callingやlong-context workflowでどれだけ機能するかだろう。ただ、公開情報だけでもGemma 4は、edge deviceとworkstation-class systemの両方でopen modelのdeployabilityを押し上げようとする本気度の高いリリースに見える。

出典: Google DeepMind Gemma 4, Hacker News議論

Share: Long

Related Articles

LLM sources.twitter Mar 26, 2026 1 min read

Google DeepMindは2026年3月26日、Gemini 3.1 Flash LiveがGoogle AI StudioのLive APIでpreview提供されると発表した。Googleブログによれば、このモデルはリアルタイムvoice・vision agent向けで、noisy環境でのtool triggeringを改善し、90超の言語でmultimodal会話を扱える。

LLM sources.twitter 3d ago 1 min read

Google DeepMindは2026年3月26日、Gemini 3.1 Flash LiveをGemini LiveとGoogle Search Liveへ順次展開し、開発者はGoogle AI Studioから利用を始められると発表した。Googleはこれを自社最高品質のaudio modelと位置づけ、低latency、向上したtonal understanding、ComplexFuncBench Audio 90.8%を打ち出している。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.