NVIDIA, Cosmos Transfer 2.5·Predict 2.5·Reason 2 공개… physical AI용 synthetic data와 reasoning 강화
Original: Autonomous vehicles, humanoid robots - even surgical ones — depend on massive, diverse, and physics-aware datasets for training. Better models generate better data to train even better downstream models. NVIDIA Cosmos is at the center. New model checkpoints are up to: Scale synthetic data generation with realism and diversity faster with Transfer 2.5; Improve long-tail scenario coverage using Predict 2.5; Faster and advanced vision reasoning with Reason 2. Read how Cosmos WFMs are setting the foundation for the next generation of robots and autonomous systems. View original →
X에서 NVIDIA가 강조한 내용
2026년 3월 20일, NVIDIA는 새로운 Cosmos checkpoint가 physical AI의 가장 어려운 문제 중 하나를 겨냥한다고 밝혔다. 바로 로봇과 자율 시스템을 훈련하는 데 필요한 대규모의 다양하고 물리적으로 타당한 데이터와 reasoning 능력이다. 공지의 축은 세 가지다. Cosmos Transfer 2.5, Cosmos Predict 2.5, Cosmos Reason 2.
전략적으로 중요한 점은 NVIDIA가 이 업데이트를 단순 추론 속도 개선으로 말하지 않는다는 것이다. 회사는 Cosmos를 simulation, synthetic data generation, future-world prediction, embodied reasoning을 잇는 인프라 계층으로 설명한다. 따라서 이번 발표는 로봇 연구실만이 아니라 physical AI stack 전체에 관련된다.
NVIDIA Technical Blog에서 확인되는 내용
연결된 NVIDIA Technical Blog는 차세대 humanoid, autonomous vehicle, 기타 physical AI 시스템이 high-fidelity, physics-aware training data에 의존한다고 설명한다. 그리고 각 업데이트가 그 병목을 어떻게 줄이려는지 구체적으로 적고 있다.
- Cosmos Transfer 2.5는 simulation과 3D spatial input을 활용한 더 빠르고 확장성 있는 데이터 증강 도구로 소개된다. 다양한 조명, 환경, 장면 조건에서 더 photorealistic한 synthetic data를 만드는 데 초점을 둔다.
- Cosmos Predict 2.5는 최대 30초 길이의 future-world sequence 생성에 초점을 맞추며, NVIDIA에 따르면 proprietary 또는 domain-specific 데이터로 post-train할 경우 최대 10배 높은 정확도에 도달할 수 있다. multiview output과 custom camera layout도 지원한다.
- Cosmos Reason 2는 더 강한 spatiotemporal understanding, 2D·3D object localization, reasoning explanation, 최대 256K input token long context를 제공한다고 설명된다.
블로그는 이 변화들을 simulation data, perception, scenario generation, downstream decision system이 서로 맞물려 돌아가는 physical AI workflow와 직접 연결한다. NVIDIA의 관점에서는 world model이 환경을 해석하는 데 그치지 않고, 이후 시스템을 학습시키는 데이터 자체를 만드는 역할까지 한다.
왜 중요한가
physical AI의 병목은 웹 규모 언어 모델과 다르다. 로봇과 자율 시스템은 조명 변화, 드문 edge case, motion dynamics, sensor layout, 실제 물리 조건을 폭넓게 다뤄야 한다. 그런데 현실 데이터를 충분히 모으는 일은 비용과 시간이 크다. 그래서 synthetic generation과 world model은 부가 기능이 아니라 핵심 인프라가 된다.
NVIDIA는 바로 그 인프라 층을 Cosmos로 선점하려 하고 있다. Transfer가 photoreal generation을, Predict가 scenario rollout을, Reason이 grounded multimodal 해석을 강화하면 Cosmos는 downstream robotics system을 학습·검증하는 플랫폼이 된다. NVIDIA가 Cosmos를 단순 부가 연구가 아니라 차세대 physical AI의 중심 기반으로 밀고 있는 이유도 여기에 있다.
Related Articles
NVIDIA는 March 16, 2026 Physical AI Data Factory Blueprint를 발표했다. 이 open reference architecture는 robotics, vision AI agents, autonomous vehicles를 위한 데이터 생성·증강·평가 과정을 하나의 파이프라인으로 묶는 것을 목표로 한다.
NVIDIA는 2026년 3월 16일 robotics, vision AI agents, autonomous vehicles를 위한 학습 데이터 생성·증강·평가용 open reference architecture인 Physical AI Data Factory Blueprint를 공개했다. 회사는 이 스택이 Cosmos 모델, coding agents, Microsoft Azure와 Nebius 같은 cloud 인프라를 결합해 physical AI 훈련 비용과 시간을 줄인다고 설명한다.
NVIDIA는 2026년 3월 16일 ABB, FANUC, Figure, KUKA, Skild AI 등 주요 robotics 기업이 Cosmos, Isaac, GR00T를 기반으로 physical AI를 simulation에서 production으로 옮기고 있다고 밝혔다. 이번 발표에는 Cosmos 3, early access 단계의 Isaac Lab 3.0, commercial early access 형태의 GR00T N1.7도 포함됐다.
Comments (0)
No comments yet. Be the first to comment!