Google, Gemma 4 공개… Apache 2.0 license와 최대 256K context 제공
Original: Today, we’re launching Gemma 4, our most intelligent open models to date. Built with the same breakthrough technology as Gemini 3, Gemma 4 brings advanced reasoning to your personal hardware and devices. Here’s what Gemma 4 unlocks for developers: — Intelligence-per-parameter: Our 31B (Dense) and 26B (MoE) models deliver state-of-the-art performance for their size, outcompeting models 20x their size on @arena — Commercial flexibility: Released under a permissive Apache 2.0 license for complete developer flexibility and digital sovereignty — Agentic workflows: Native support for function-calling and structured JSON output allows you to build reliable, autonomous agents — Multimodal edge AI: The E2B and E4B models bring native vision, audio, and low latency to mobile and IoT devices — Long-context reasoning: Up to 256K context windows allow you to process entire repositories or large documents in a single prompt Whether you’re building global applications in 140+ languages or local-first AI code assistants, Gemma 4 is built to be your foundation. Explore in @GoogleAIStudio or download the weights on @HuggingFace, @Kaggle, and @Ollama. View original →
Google이 무엇을 공개했나
2026년 4월 2일, Google은 Gemma 4를 공개하며 지금까지 자사가 낸 가장 강력한 open model family라고 설명했다. 회사는 Gemma 4가 Gemini 3와 같은 연구·기술 기반 위에서 만들어졌지만, hosted proprietary API가 아니라 개발자가 자신의 하드웨어에서 advanced reasoning과 agentic workflow를 돌릴 수 있도록 설계됐다고 강조한다.
이번 발표가 중요한 이유는 Google이 Gemma 4를 작은 실험용 모델이 아니라 본격적인 open-model platform으로 포지셔닝하고 있기 때문이다. Google은 edge device부터 workstation까지 아우르는 배포 경로와 함께, 상업적으로도 유연한 Apache 2.0 license를 전면에 내세웠다. 이는 model capability와 deployment control을 동시에 원하는 팀에게 의미가 크다.
Gemma 4 family 구성
Google에 따르면 Gemma 4는 E2B, E4B, 26B Mixture of Experts, 31B Dense의 네 가지 크기로 나온다. 큰 모델은 size 대비 frontier-class 성능을, 작은 edge 모델은 multimodality와 low latency, on-device utility를 중심 가치로 내세운다.
- Google은 31B 모델이 Arena AI text leaderboard에서 #3 open model, 26B 모델이 #6에 올라 있으며, Gemma 4가 자기보다 20배 큰 모델도 능가한다고 설명한다.
- 회사는 function-calling, structured JSON output, native system instructions를 지원해 agentic workflow를 쉽게 만들 수 있다고 말한다.
- Context window는 edge 모델이 128K, 큰 모델이 최대 256K까지 제공된다.
- Google은 Gemma 4가 140+ languages에 대해 native training을 거쳤다고 밝혔다.
왜 benchmark 이상의 의미가 있나
Google은 이번 공개에 ecosystem과 adoption 신호도 함께 붙였다. 회사는 이전 Gemma 모델이 400 million회 이상 다운로드됐고, Gemmaverse 안에서 100,000개가 넘는 variant가 만들어졌다고 설명한다. 이 숫자를 Gemma 4 launch와 연결한 것은, 이번 공개를 단순한 연구 checkpoint가 아니라 장기적으로 유지되는 open-model stack의 다음 단계로 보길 원한다는 뜻에 가깝다.
또 Google은 AI Studio, Hugging Face, Ollama, NVIDIA NIM, llama.cpp, vLLM 등 day-one ecosystem 지원을 함께 강조했다. 여기서 읽히는 하나의 추론은, Google이 closed frontier API와 완전한 self-managed local deployment 사이의 중간 계층에서 더 적극적으로 경쟁하려 한다는 점이다. Gemma 4는 developer가 직접 fine-tune하고 배포하고, phone·laptop·workstation·accelerator에 걸쳐 운영할 수 있으면서도 tool use와 long context 같은 최신 agent feature를 제공하는 모델로 포장되고 있다.
실제 평가는 어디서 갈리나
물론 성능에 대한 가장 강한 framing은 Google 자체 자료와 leaderboard reference에서 나온다. 실제 채택은 downstream task, hardware budget, local serving stack에서 얼마나 잘 동작하는지에 달려 있다. 그럼에도 이번 공개는 open license, 본격적인 model size, 긴 context, agentic workflow 기능, 폭넓은 배포 유연성을 한 번에 묶었다는 점에서 충분히 고신호다. Open model이 production-grade work를 더 많이 감당할 수 있는지 검토하는 팀이라면 무시하기 어려운 패키지다.
출처: Google AI X 게시물 · Google 블로그
Related Articles
GitHub는 2026년 3월 28일 Copilot CLI가 plan mode, /fleet, autopilot 조합으로 터미널에서 robust한 test suite를 만들 수 있다고 밝혔다. 관련 GitHub docs는 /fleet를 병렬 subagent 실행으로, autopilot을 autonomous multi-step completion으로 설명하고 있어, 이번 post는 CLI 안에서의 multi-agent testing workflow를 보여 주는 구체적 사례다.
AnthropicAI는 2026년 3월 24일 Claude를 frontend와 장기 실행 software engineering 작업에 더 안정적으로 쓰기 위한 multi-agent harness 글을 다시 부각했다. 해당 Anthropic Engineering 글은 initializer agent, incremental coding session, progress log, structured feature list, browser-based testing으로 context-window drift와 premature completion을 줄이는 방법을 설명한다.
OpenAI는 GPT-5.4를 전문 업무용으로 가장 강력하고 효율적인 frontier model로 소개했다. reasoning, coding, computer use를 함께 끌어올리면서 ChatGPT, API, Codex 전반에 동시에 배치한 점이 핵심이다.
Comments (0)
No comments yet. Be the first to comment!