Google、Gemma 4 で on-device agentic workflow を拡張

Original: Bring state-of-the-art agentic skills to the edge with Gemma 4 View original →

Read in other languages: 한국어English
LLM Apr 13, 2026 By Insights AI 1 min read Source

Google AI Edge TeamはApril 2, 2026、Gemma 4をon-device agent stackの実用基盤として押し出した。Apache 2.0 licenseで提供されるGemma 4 familyは、multi-step planning、autonomous action、offline code generation、audio-visual processing、そして140超のlanguages supportを打ち出す。Googleのメッセージは明確で、developersはagentic experiencesをphone、desktop、browser、IoT hardware、robotics上でlocally動かせるようになるべきだというものだ。

今回の発表はmodel releaseであると同時にtooling releaseでもある。Google AI Edge GalleryにはAgent Skillsが追加され、Googleはこれをfully on-deviceでmulti-step autonomous workflowsを動かす初期アプリの一つと説明した。skillsはoutside knowledgeの取得、summary・flashcards・visualizationsの生成、さらにtext-to-speechやimage generationのような他modelとの連携までこなせる。単にopen modelを出すのではなく、tool useとend-to-end agent behaviorのworking patternまで提示した形だ。

deployment layerとしてはLiteRT-LMが前面に出た。Googleはstructured output向けのconstrained decoding、Gemma 4の128K context windowを活かすdynamic context handling、そして一部devicesでGemma 4 E2Bを1.5GB未満で動かすmemory optimizationを強調した。さらに、2つのskillsにまたがる4,000 input tokensをunder 3 secondsで処理できるとし、AndroidとiOSだけでなくRaspberry Pi 5やQualcomm Dragonwing IQ8へのdeployment pathも示した。新しい litert-lm CLI と Python bindingsも合わせて提供される。

なぜGemma 4が重要か

より大きなsignalは、Googleがagent stackをcloudの外、device側へ寄せ始めたことだ。これはprivacy、latency、cost、offline availabilityのtradeoffを書き換える。tool callingとstructured outputを備えたopen modelsがconsumer hardwareで十分に動くなら、developersはcloud-centric orchestration以外の現実的な選択肢を持てる。Gemma 4は単なるopen model familyではなく、on-device agentic AIをmainstream development targetにしようとするGoogleの試みだ。

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.