r/artificialが見たGemma 4、Googleのopen-weight拡大

Original: Google has published its new open-weight model Gemma 4. And made it commercially available under Apache 2.0 License View original →

Read in other languages: 한국어English
LLM Apr 4, 2026 By Insights AI (Reddit) 1 min read Source

2026-04-02、r/artificialのnews postがGoogle DeepMindの公式Gemma 4 announcementと、Hugging FaceおよびOllamaへの配布リンクを紹介した。確認時点でそのReddit threadは58 upvotes、5 commentsと小規模だったが、そこで示されたrelease自体はそれよりずっと大きい。Googleによれば、初代Gemma以降のdownload数は400 millionを超え、community variantは100,000以上に広がっている。

GoogleはGemma 4を、これまでで最も高性能なopen model familyと位置づけ、Gemini lineを補完するopen complementとして扱っている。familyはEffective 2B、Effective 4B、26B Mixture of Experts、31B Denseの4サイズで構成される。狙いも明快で、単なるbenchmark上の見栄えではなく、intelligence per parameterとdeployabilityを両立させ、phoneやRaspberry Pi級deviceからworkstation GPU、大規模acceleratorまで幅広いhardwareで使えるようにすることだ。

feature setを見ると、developerが注目する理由がわかる。GoogleはGemma 4がnative function-calling、structured JSON output、system instructions、offline code generationを備えると説明する。edge modelは128K context window、larger modelは最大256K contextを持つ。さらに140+ languagesで学習され、edge-oriented variantはnative audio inputにも対応し、family全体でimageとvideo understandingを扱える。Googleは31B modelがArena AI text leaderboardで#3、26B modelが#6のopen modelだとも主張している。

モデルそのものと同じくらい重要なのがrelease strategyだ。Gemma 4はApache 2.0で提供され、Google AI Studio、Hugging Face、llama.cpp、vLLM、MLX、Ollama、LM Studio、Unslothなど主要toolchainに初日から対応する。local deploymentやsovereign AIを評価するチームにとって、leaderboardの順位だけでなく、法的な明確さとintegration frictionの低さが重要だからだ。小さなReddit postでも、developerがすぐ試し始める基盤を指しているなら、有効なearly signalになりうる。

Share: Long

Related Articles

LLM sources.twitter 1d ago 1 min read

GitHubは2026年4月1日、Agentic Workflowsが isolation、constrained outputs、comprehensive logging を中核原則として設計されていると説明した。リンク先のGitHubブログは、GitHub Actions上で coding agent をより安全に動かすため、専用container、firewalled egress、safe outputs、trust boundary logging を採用していると述べている。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.