AGIBOT、robot 5種とembodied AI model 8本を一つのdeployment stackへ接続
Original: AGIBOT Unveils New Generation of Embodied AI Robots and Models, Accelerating Real-World Deployment of Physical AI View original →
Embodied AIの競争は、単体robotのdemoからdeployment stackの勝負へ移っている。AGIBOTは 2026 Partner Conference で、5つのrobotic platformと8つのfoundational AI productを公開し、locomotion、manipulation、interactionをOne Robotic Body, Three Intelligencesというarchitectureにまとめた。
hardwareの幅は広い。AGIBOT A3は173 cm、55 kgのhumanoid platformで、interactive environment向けに設計されている。10-hour endurance、10-second battery swap、100-robot synchronized performanceを狙うUWB centimeter-level swarm positioning、shoulder tactile sensing、360-degree multi-array microphonesを掲げる。factoryだけでなく、entertainment、education、customer engagementを意識した仕様だ。
AGIBOT G2 Airはsingle-arm mobile manipulatorで、7 DOF、3 kg payload、750-800 mm reach、sub-800 mm width、1.5 m/s以上のspeedを示した。retail、hospitality、logistics、structured industrial workflowのように、人の近くで軽作業をこなす領域を狙う。AGIBOTは、task executionの途中でtraining dataも取るため、assisted operationからfull autonomyへ進む道筋を持つと説明している。
manipulationの部品も厚い。OmniHand 3 Ultra-Tは22+3 DOF tendon-driven system、500 g weight、10:1 load-to-weight ratio、full-hand 3D tactile sensing、palm camera、sub-0.3 second response timeを備える。industrial-gradeのOmniPicker 3は140 N forceと1,000,000-cycle durabilityを掲げ、OmniHand 3 Liteはよりruggedな環境を想定する。
field work側では、D2 Maxがall-terrain Level 3 autonomous quadrupedとして紹介された。security patrol、industrial inspection、emergency rescue、logistics、agriculture、educationが対象だ。さらにMEgoはrobot bodyそのものではなく、vision、motion、tactile dataを現場で集めるbody-free data collection systemだ。physical AIでは高品質なreal-world dataが詰まりやすいため、この部品は地味だが重要になる。
model layerでは、single demonstrationやshort videoからmotion imitationを行うBFM、text、audio、video inputをrobot motionに変換するGCFM、industrial、logistics、home、hotel、commercial scenarioから集めたopen-source real-world datasetのAGIBOT WORLD 2026が並ぶ。GO-2はAction Chain-of-Thoughtでplanningとexecutionをつなぎ、GE-2とGenie Sim 3.0はvirtual worldとsimulationを担う。SOPはdeployed fleetからonline learningを回し、WITA Omniはvision、audio、language、actionを統合するrobot-native multimodal interaction modelだ。
注目点は個々のspecだけではない。AGIBOTはMarch 2026に10,000th robot rolloutを示しており、今回の話はlab prototypeより商用fleetに近い文脈を持つ。industrial、logistics、retail、security、service workflowで本当にproductivityを出せるかが次の検証点になる。
Related Articles
Physical Intelligenceはπ0.7が新しいlanguage commandとtraining dataにないtaskで初期のcompositional generalizationを示したと説明した。Laundry foldingでは、UR5e用task dataなしでexpert teleoperatorsのzero-shot successに並んだ。
HNが見ていたのはmodelそのものより、「物理世界で使えるreasoningはどれだけ速くなければならないか」だった。Google DeepMindはGemini Robotics-ER 1.6をspatial reasoning、multi-view understanding、success detection、instrument reading向けのpreviewとして示し、コメント欄ではgauge-reading demo、latency、実deploymentの距離が議論された。
Generalistは GEN-1が、より高い success rate、より速い execution、より少ない task-specific robot dataで、単純な physical taskの commercial thresholdを越え始めたと述べている。
Comments (0)
No comments yet. Be the first to comment!