Google DeepMind는 로봇용 embodied reasoning을 데모 수준에서 실제 작업 쪽으로 더 밀어 넣고 있다. 연결된 스레드와 블로그에 따르면 Gemini Robotics-ER 1.6은 agentic vision 사용 시 계기판 판독 성공률 93%를 기록했고, 영상 기반 injury risk 감지는 Gemini 3.0 Flash 대비 10% 개선됐다.
Gemini Robotics-ER 1.6: 계기판 읽기에서 Spot 제어까지
Gemini Robotics-ER 1.6 공개, 계기판 읽기 정확도 23%→93%, 위험 감지 10% 개선, HN 검토, Spot 자연어 제어 데모까지 로봇 추론 모델의 현장 적용 흐름을 시간순으로 묶습니다.
Google DeepMind의 최신 로봇 모델은 산업 현장의 계기판 읽기 과제를 23%에서 93%까지 밀어 올리며 embodied reasoning의 실제 진전을 숫자로 보여줬다. 4월 14일 올라온 Gemini Robotics-ER 1.6은 Gemini API와 Google AI Studio에서도 바로 다뤄볼 수 있다.
HN이 주목한 지점은 새 robotics model 자체보다 “물리 세계에서 reasoning이 얼마나 빨라야 쓸모가 있나”였다. Google DeepMind는 Gemini Robotics-ER 1.6을 spatial reasoning, multi-view understanding, success detection, instrument reading에 맞춘 preview로 내놓았고, 댓글은 gauge-reading demo와 latency, 실제 robot deployment 사이의 간극을 파고들었다.
Google DeepMind와 Boston Dynamics가 foundation model과 robot API를 더 선명하게 연결했다. demo는 Spot에게 movement, photo, grasping tools를 주고 Gemini Robotics가 plain-English task에서 plan을 만들게 했다.