Boston Dynamics Atlas, Google DeepMind Gemini 탑재하고 양산 돌입
Boston Dynamics가 2026년 1월 5일 CES에서 차세대 Atlas® 휴머노이드 로봇의 양산 버전을 공개했습니다. 이는 10년 만에 Google과 재회합하여 Google DeepMind의 Gemini Robotics AI를 통합하는 역사적인 협업입니다.
제품 사양
양산형 Atlas는 다음과 같은 혁신적인 사양을 자랑합니다:
- 56 자유도: 회전 관절로 인간과 유사한 움직임 구현
- 인간 크기 손: 촉각 센싱 기능으로 섬세한 조작 가능
- 최대 하중 110파운드(약 50kg): 산업 현장에서 실질적인 작업 수행
- 전기 구동: 유압 대비 효율성과 유지보수성 향상
AI 통합: Gemini Robotics
Google DeepMind는 Gemini Robotics 파운데이션 모델을 Atlas에 통합하여 다음 기능을 제공합니다:
- 지각(Perception): 비정형 환경에서 물체 및 상황 인식
- 추론(Reasoning): 복잡한 지시사항을 이해하고 작업 계획 수립
- 상호작용(Interaction): 주변 환경 및 인간과 안전하게 협업
배포 계획
2026년의 모든 Atlas 배포 물량은 이미 완전히 예약되었으며, 다음과 같이 출하됩니다:
- Hyundai RMAC (Robotics Metaplant Application Center): 조지아주 공장에서 자동차 생산 라인 투입
- Google DeepMind: AI 연구 및 개발용
추가 고객들은 2027년 초부터 Atlas를 공급받을 예정입니다.
업계 영향
이번 발표는 휴머노이드 로봇 산업의 전환점으로 평가받고 있습니다. 하드웨어가 수렴하면서 이제는 판단력, 맥락 이해, 실시간 인간 상호작용 능력이 차별화 요소가 되고 있습니다. Boston Dynamics와 Google DeepMind의 협력은 하드웨어 우수성과 AI 지능을 결합하여 실제 산업 현장에 투입 가능한 로봇을 최초로 구현한 사례입니다.
Related Articles
Google DeepMind's latest robotics model pushes a hard industrial task from 23% to 93% accuracy when agentic vision is enabled, putting a concrete number on embodied reasoning progress. The April 14 release also puts Gemini Robotics-ER 1.6 into the Gemini API and Google AI Studio, so developers can test the upgrade immediately.
HN focused less on the model drop and more on the hard robotics question: how fast does reasoning need to be before it is useful in the physical world? Google DeepMind frames Gemini Robotics-ER 1.6 around spatial reasoning, multi-view understanding, success detection, and instrument reading, while commenters zoomed in on gauge-reading demos, latency, and deployment reality.
Google DeepMind is pushing embodied reasoning closer to deployable robotics, not just lab demos. In the linked thread and blog post, Gemini Robotics-ER 1.6 reaches 93% on instrument reading with agentic vision and improves injury-risk detection in video by 10% over Gemini 3.0 Flash.
Comments (0)
No comments yet. Be the first to comment!