Google DeepMind, Apache 2.0 기반 Gemma 4 공개

Original: Meet Gemma 4: our new family of open models you can run on your own hardware. Built for advanced reasoning and agentic workflows, we're releasing them under an Apache 2.0 license. Here's what's new View original →

Read in other languages: English日本語
LLM Apr 9, 2026 By Insights AI 1 min read 1 views Source

무슨 일이 있었나

Google DeepMind는 2026년 4월 2일 X에서 Gemma 4를 발표하며, 자체 하드웨어에서 실행할 수 있는 오픈 모델 계열을 Apache 2.0 license로 공개한다고 밝혔다. 같은 날 Google Developers Blog는 Gemma 4를 on-device AI 개발용 toolkit으로 소개하며, chatbot 수준을 넘어 multi-step planning, autonomous action, offline code generation, audio-visual processing까지 가능한 방향으로 설계됐다고 설명했다.

이번 발표에서 중요한 점은 모델 공개와 배포 툴체인이 동시에 나왔다는 것이다. Google은 Android의 AICore Developer Preview, Google AI Edge Gallery, LiteRT-LM을 함께 내세우며 모바일, 데스크톱, 웹, IoT까지 이어지는 실행 경로를 하나의 패키지처럼 보여 줬다. 단순히 weights만 배포한 것이 아니라, 실제 앱에 넣어보는 경로를 바로 연결한 셈이다.

핵심 포인트

  • Gemma 4는 140개 이상 언어를 지원하며, on-device agentic workflow를 주요 사용 사례로 내세웠다.
  • Google AI Edge Gallery의 Agent Skills는 Wikipedia 질의, 요약, 시각화, 다른 모델 연결 같은 multi-step flow를 기기 안에서 실행하는 예시를 보여 준다.
  • LiteRT-LM은 constrained decoding, dynamic context, 저메모리 실행을 강조했고, 일부 기기에서는 Gemma 4 E2B를 1.5GB 미만 메모리로 구동할 수 있다고 설명했다.

이 발표가 중요한 이유는 open model 전략의 초점이 이제 공개 여부만이 아니라 deployment experience로 이동하고 있기 때문이다. 모델이 Apache 2.0으로 풀리는 것만으로는 충분하지 않다. 개발자가 실제 모바일 앱, 데스크톱 앱, edge device, IoT 환경에 넣어 볼 수 있어야 채택이 일어난다. Google은 이번에 그 경로를 꽤 구체적으로 제시했다.

또 하나의 의미는 agentic capability가 cloud 전용이 아니라 edge와 local inference 영역으로 확장되고 있다는 점이다. Google은 Gemma 4가 단순 응답 생성보다 더 복합적인 workflow를 처리할 수 있다고 말했고, 이에 맞춰 CLI, Python bindings, on-device gallery 앱까지 제공했다. 이는 오픈 모델 경쟁이 benchmark 숫자뿐 아니라 packaging과 distribution 품질로도 이동하고 있음을 보여 준다.

개발자 입장에서는, Gemma 4가 실제 production fit을 가지려면 성능뿐 아니라 tool calling 안정성, 메모리 요구 사항, 지원 플랫폼 폭이 중요하다. Google은 바로 그 부분을 중심으로 메시지를 짰다. 원문: Google Developers Blog.

Share: Long

Related Articles

LLM Reddit 4d ago 1 min read

r/artificial의 한 게시물은 Google DeepMind의 Gemma 4 공개를 가리켰고, 이 모델은 Apache 2.0 아래에서 advanced reasoning과 agentic feature를 묶어 제공한다. Google은 네 가지 크기의 family, larger model 기준 최대 256K context, 그리고 Hugging Face부터 llama.cpp까지 이어지는 day-one ecosystem support를 강조했다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.