Google DeepMind, Gemma 4 공개…agentic workflow와 multimodal local AI 겨냥

Original: Google releases Gemma 4 open models View original →

Read in other languages: English日本語
LLM Apr 2, 2026 By Insights AI (HN) 1 min read Source

Google DeepMind가 공개한 것

Google DeepMind는 Gemini 3 research를 바탕으로 한 새로운 open model family인 Gemma 4를 공개했다. 이번 공개는 Gemma 4를 단순한 lightweight demo 계열이 아니라, advanced reasoning과 agentic workflow를 위한 open-model 라인으로 배치한다. 크롤링 시점 기준 관련 Hacker News 토론은 212점, 37개 댓글을 기록해, 개발자들이 이를 단순 benchmark 뉴스가 아니라 실제 local deployment 관점에서 읽고 있음을 보여줬다.

모델군은 두 계층으로 나뉜다. E2BE4B는 mobile·IoT 시나리오를 겨냥하며, Google DeepMind는 phone, Raspberry Pi, Jetson Nano 같은 edge device에서 offline 실행과 near-zero latency를 강조했다. 반면 26B31B는 personal computer와 local-first server를 겨냥하며, IDE, coding assistant, agentic workflow에서 consumer GPU로 돌릴 수 있는 구성을 전면에 내세운다.

왜 주목받는가

Gemma 4는 text-only open model로 포지셔닝되지 않는다. Google DeepMind는 multimodal reasoning, native function calling, 그리고 140개 언어 지원을 핵심 capability로 제시했다. 많은 open-model 릴리스가 작은 footprint, multilingual coverage, tool-using behavior 사이에서 trade-off를 요구하는 것과 달리, Gemma 4는 이 세 가지를 한 family 안에서 동시에 잡으려는 시도로 읽힌다.

배포 경로도 넓다. Google DeepMind는 Hugging Face, Ollama, Kaggle, LM Studio, Docker를 통한 배포를 바로 제공하고, runtime 측면에서는 Jax, Keras, PyTorch, gemma.cpp, Google AI Edge를 함께 제시한다. 실험용 테스트부터 local server 형태의 실제 운영까지 진입 장벽을 낮추려는 구성이다.

실무 관점에서의 의미

이번 발표의 핵심 메시지는 parameter당 효율이다. Google DeepMind는 큰 모델을 두고 “personal computer에서의 frontier intelligence”를 전면에 내세우고, 작은 모델은 offline edge workload로 명확히 구분했다. hosted API에 항상 의존하기 어려운 local copilot, multimodal assistant, agent runtime을 만드는 팀에게는 headline parameter count보다 이런 product split이 더 실용적이다.

결국 관건은 community benchmark가 나온 뒤 26B·31B가 실제 tool-calling과 long-context workflow에서 어떤 체감을 주느냐다. 다만 공개된 정보만 놓고 보면, Gemma 4는 edge device와 workstation-class system 양쪽에서 open model의 deployability를 끌어올리려는 진지한 시도로 볼 수 있다.

출처: Google DeepMind Gemma 4, Hacker News 토론

Share: Long

Related Articles

LLM sources.twitter Mar 26, 2026 1 min read

Google DeepMind는 2026년 3월 26일 Gemini 3.1 Flash Live가 Google AI Studio의 Live API를 통해 preview로 제공된다고 밝혔다. Google 블로그에 따르면 이 모델은 실시간 voice·vision agent를 겨냥하며, noisy 환경에서의 tool triggering을 개선하고 90개가 넘는 언어의 multimodal 대화를 지원한다.

LLM sources.twitter Mar 17, 2026 1 min read

Google DeepMind는 X에서 Gemini Embedding 2를 Gemini API와 Vertex AI를 통해 preview로 제공한다고 밝혔다. 이 모델은 Gemini architecture 기반의 첫 fully multimodal embedding model로, text·image·video·audio·documents 검색 계층을 하나로 묶는 것을 목표로 한다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.