Google DeepMind, Apache 2.0와 native agent 기능 갖춘 Gemma 4 공개

Original: Google DeepMind launches Gemma 4 open models with Apache 2.0 licensing and native agent features View original →

Read in other languages: English日本語
LLM Apr 6, 2026 By Insights AI (Twitter) 1 min read Source

Google DeepMind의 4월 2일 X 스레드는 Gemma 4를 “자체 hardware에서 돌릴 수 있는” 새로운 open model family로 내세웠다. 이어진 공식 블로그는 이 라인업이 advanced reasoning과 agentic workflows를 겨냥해 설계됐으며, Apache 2.0 라이선스로 배포된다고 설명한다. 최근 open model 시장이 성능과 배포 자유도 사이에서 줄다리기를 해 왔다는 점을 감안하면, Google은 이번 발표를 capability와 deployment flexibility를 동시에 노린 카드로 꺼낸 셈이다.

구성도 분명하다. Gemma 4는 Effective 2B, Effective 4B, 26B Mixture-of-Experts, 31B Dense의 네 가지 크기로 출시됐다. Google은 31B 모델이 Arena AI text leaderboard 기준 #3 open model, 26B 모델이 #6 open model에 올랐으며, 일부 항목에서는 자신보다 20배 큰 모델을 앞선다고 주장했다. 동시에 edge 쪽에서는 E2B와 E4B를 통해 phone, Raspberry Pi, Jetson Orin Nano 같은 기기에서 완전 로컬 실행까지 염두에 둔 구성을 강조했다.

Native tool use를 전면에 둔 open model 전략

이번 세대의 핵심은 단순 chat 성능이 아니라 agent stack에 바로 연결되는 기능이다. Google은 Gemma 4가 native function calling, structured JSON output, native system instructions를 지원해 autonomous agent workflows를 더 쉽게 만들 수 있다고 설명한다. 여기에 128K에서 256K까지 이어지는 context window, 140개 이상 언어 학습, offline code generation, multimodal 입력까지 더해지면서 “local-first agent model”이라는 포지셔닝이 분명해졌다.

이 발표가 중요한 이유는 open model 진영의 기준을 다시 끌어올렸기 때문이다. 기업 입장에서는 Apache 2.0 라이선스와 on-prem·cloud 양쪽 배치 자유도가 매력적이고, 개발자 입장에서는 Hugging Face, Ollama, NVIDIA NIM, NeMo 등 day-one ecosystem 지원이 바로 실험을 가능하게 한다. open model이 단순 benchmark 경쟁을 넘어 실제 agent deployment용 기본 레이어가 되려면 어떤 조건이 필요한지, Gemma 4는 그 체크리스트를 꽤 노골적으로 제시한 사례다. 출처는 X postGoogle 공식 블로그다.

Share: Long

Related Articles

LLM sources.twitter 4d ago 2 min read

Google은 2026년 4월 2일 Gemma 4를 가장 강력한 open model family라고 소개하며, Gemini 3와 같은 기술 기반 위에서 만들어졌다고 밝혔다. 회사는 E2B, E4B, 26B MoE, 31B Dense를 제공하고, function-calling·structured JSON output·최대 256K context·Apache 2.0 license를 지원한다고 설명했다.

LLM Reddit 2d ago 1 min read

r/artificial의 한 게시물은 Google DeepMind의 Gemma 4 공개를 가리켰고, 이 모델은 Apache 2.0 아래에서 advanced reasoning과 agentic feature를 묶어 제공한다. Google은 네 가지 크기의 family, larger model 기준 최대 256K context, 그리고 Hugging Face부터 llama.cpp까지 이어지는 day-one ecosystem support를 강조했다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.