NVIDIA、Cosmos Transfer 2.5・Predict 2.5・Reason 2を公開 physical AI向けsynthetic dataとreasoningを強化
Original: Autonomous vehicles, humanoid robots - even surgical ones — depend on massive, diverse, and physics-aware datasets for training. Better models generate better data to train even better downstream models. NVIDIA Cosmos is at the center. New model checkpoints are up to: Scale synthetic data generation with realism and diversity faster with Transfer 2.5; Improve long-tail scenario coverage using Predict 2.5; Faster and advanced vision reasoning with Reason 2. Read how Cosmos WFMs are setting the foundation for the next generation of robots and autonomous systems. View original →
XでNVIDIAが打ち出した内容
2026年3月20日、NVIDIAは新しいCosmos checkpointがphysical AIの最も難しい課題の一つに向けられていると説明した。つまり、ロボットや自律システムを訓練するために必要な、大規模で多様かつphysics-awareなデータとreasoning能力である。更新の柱は Cosmos Transfer 2.5、Cosmos Predict 2.5、Cosmos Reason 2 の3つだ。
戦略的に重要なのは、NVIDIAがこれを単なる推論高速化として語っていない点にある。同社はCosmosを、simulation、synthetic data generation、future-world prediction、embodied reasoningをつなぐインフラ層として位置づけている。だからこの発表は、ロボティクス研究だけでなくphysical AI全体の基盤に関わる話だ。
NVIDIA Technical Blogで確認できる内容
リンク先のNVIDIA Technical Blogは、次世代のhumanoidやautonomous vehicleなどのphysical AI systemがhigh-fidelity, physics-aware training dataに依存すると説明する。そのうえで各更新が何を改善するのかを具体的に示している。
- Cosmos Transfer 2.5 は、simulationと3D spatial inputから、より高速かつスケーラブルにデータ拡張を行う仕組みとして説明されている。照明、環境、構図の違いに強いphotorealistic synthetic data生成が焦点だ。
- Cosmos Predict 2.5 は、最大 30秒 の future-world sequence生成を担い、NVIDIAによれば proprietary または domain-specific data で post-train した場合、最大 10倍 の精度向上が見込めるという。multiview output と custom camera layout にも対応する。
- Cosmos Reason 2 は、より高い spatiotemporal understanding、2D・3D object localization、reasoning explanation、最大 256K input token の long context を追加するとしている。
記事は、これらの更新を simulation data、perception、scenario generation、downstream decision system が連動する physical AI workflow と直接結びつけている。NVIDIAの考えでは、world modelは環境理解だけでなく、その後のシステム改善に使う訓練データ生成にも関与する。
なぜ重要か
physical AIのボトルネックは、web-scale language modelとは異なる。ロボットや自律機械は、照明変化、稀な edge case、motion dynamics、sensor layout、現実の物理条件まで幅広く扱う必要がある。しかし実世界データを十分に集めるのは高コストで時間もかかる。そのため synthetic generation と world model は補助機能ではなく中核インフラになる。
NVIDIAはその中核層をCosmosで押さえようとしている。Transferがphotoreal generationを、Predictがscenario rolloutを、Reasonがgrounded multimodal解釈を強化するなら、Cosmosはdownstream robotics systemを訓練・検証するためのplatformになる。NVIDIAがCosmosを次世代physical AIの中心基盤として押し出している理由はそこにある。
Related Articles
NVIDIAはMarch 16, 2026、Physical AI Data Factory Blueprintを発表した。robotics、vision AI agents、autonomous vehicles向けに、data generation・augmentation・evaluationを一つの pipeline にまとめる open reference architecture だ。
NVIDIAは2026年3月16日、robotics、vision AI agents、autonomous vehicles向けに学習データを生成・増強・評価するための open reference architecture である Physical AI Data Factory Blueprint を公開した。NVIDIAは、このスタックが Cosmos モデル、coding agents、Microsoft Azure や Nebius などの cloud infrastructure を組み合わせ、physical AI 学習のコストと時間を下げると説明している。
NVIDIAは2026年3月16日、ABB、FANUC、Figure、KUKA、Skild AIなどの主要 robotics 企業が Cosmos、Isaac、GR00T を基盤に physical AI を simulation から production へ移していると発表した。今回の発表には Cosmos 3、early access の Isaac Lab 3.0、commercial early access の GR00T N1.7 も含まれる。
Comments (0)
No comments yet. Be the first to comment!