AGIBOT, robot 5종과 embodied AI model 8개를 한 stack에 묶었다

Original: AGIBOT Unveils New Generation of Embodied AI Robots and Models, Accelerating Real-World Deployment of Physical AI View original →

Read in other languages: English日本語
Humanoid Robots Apr 19, 2026 By Insights AI 2 min read Source

Embodied AI 경쟁의 초점이 demo video에서 deployment stack으로 옮겨가고 있다. AGIBOT은 2026 Partner Conference에서 5개 robotic platform과 8개 foundational AI product를 공개하며, robot body, locomotion, manipulation, interaction을 하나의 architecture로 묶었다.

hardware 쪽 숫자는 구체적이다. A3 humanoid는 173 cm, 55 kg platform으로, 10-hour endurance와 10-second battery swap을 내세운다. UWB centimeter-level swarm positioning은 최대 100-robot synchronized performance를 겨냥하고, 360-degree multi-array microphone과 shoulder tactile sensing은 entertainment, education, customer engagement 같은 interactive use case를 노린다.

G2 Air는 7 DOF single-arm mobile manipulator다. 3 kg payload, 750-800 mm reach, sub-800 mm width, at least 1.5 m/s speed를 제시하며 retail, hospitality, logistics, structured industrial workflow를 겨냥했다. AGIBOT은 G2 Air가 assisted operation에서 full autonomy로 넘어가는 upgrade path를 제공하고, task execution 과정에서 training data까지 수집한다고 설명했다.

manipulation hardware도 별도 라인업을 이룬다. OmniHand 3 Ultra-T는 22+3 DOF tendon-driven system, 500 g weight, 10:1 load-to-weight ratio, full-hand 3D tactile sensing, palm camera, sub-0.3 second response time을 내세웠다. industrial-grade OmniPicker 3는 140 N force와 1,000,000-cycle durability를, OmniHand 3 Lite는 high-impact environment를 겨냥한다.

field robot과 data flywheel도 포함됐다. D2 Max는 all-terrain Level 3 autonomous quadruped로 소개됐고, security patrol, industrial inspection, emergency rescue, logistics, agriculture를 대상으로 삼는다. MEgo는 robotic hardware 없이 human operator가 vision, motion, tactile data를 capture하는 body-free data collection system이다. AGIBOT은 이 data가 embodied AI training dataset으로 바로 처리되도록 MEgo Engine과 결합한다고 밝혔다.

software layer는 8개 AI products로 묶였다. BFM은 single demonstration이나 short video에서 motion imitation을 학습하고, GCFM은 text, audio, video input을 robot motion으로 바꾼다. AGIBOT WORLD 2026은 industrial, logistics, home, hotel, commercial scenario에서 수집한 open-source real-world dataset이라고 소개됐다. GO-2는 Action Chain-of-Thought로 planning과 execution을 연결하고, GE-2와 Genie Sim 3.0은 virtual world와 simulation을 맡는다. SOP는 deployed robot fleets에서 online learning을 돌리고, WITA Omni는 vision, audio, language, action을 합치는 robot-native multimodal interaction model이다.

이 발표가 중요한 이유는 AGIBOT이 이미 March 2026에 10,000th robot rollout을 주장했다는 점이다. 단순히 한 대의 humanoid를 보여주는 경쟁이 아니라, robots, dataset, simulator, operating layer, online learning을 한 회사 stack 안에서 연결하려는 움직임이다. 실제 생산성과 reliability가 검증될지는 별개의 문제지만, embodied AI가 hardware catalog와 model release를 동시에 요구하는 시장으로 커지고 있다는 신호는 분명하다.

Share: Long

Related Articles

Humanoid Robots Hacker News 3d ago 1 min read

HN이 주목한 지점은 새 robotics model 자체보다 “물리 세계에서 reasoning이 얼마나 빨라야 쓸모가 있나”였다. Google DeepMind는 Gemini Robotics-ER 1.6을 spatial reasoning, multi-view understanding, success detection, instrument reading에 맞춘 preview로 내놓았고, 댓글은 gauge-reading demo와 latency, 실제 robot deployment 사이의 간극을 파고들었다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.