NVIDIA、CoreWeaveへ20億ドル投資 2030年までに5 GW超のAI工場拡張を計画
Original: NVIDIA and CoreWeave Strengthen Collaboration to Accelerate Buildout of AI Factories View original →
発表の要点
NVIDIAとCoreWeaveは2026年1月26日の発表で、提携を拡大し、2030年までに5 gigawattsを超えるAI factoriesの構築を加速すると公表した。今回の特徴は、容量目標だけでなく、ソフトウェア連携と資本投下を同時に示した点にある。AIクラウド市場では、GPUの確保だけで差別化する時期から、電力・用地・運用を含む実装能力で競う局面へ移っていることが読み取れる。
NVIDIAは同時に、CoreWeave Class A common stockへ20億ドルを投資し、取得価格は1株あたり$87.20と説明した。両社はこれを、急増するAI compute需要に対応するための長期的な連携強化として位置づけている。発表文では、インフラ、ソフトウェア、プラットフォームの整合を深めることで、大規模運用に必要な供給速度を上げる意図が示された。
実行計画
- CoreWeaveが運用するAI factoriesをNVIDIA accelerated computing技術で構築
- NVIDIAの財務基盤を活用し、land・power・shell調達を加速
- SUNKとMission Controlを含むCoreWeaveソフトウェアを検証し、NVIDIA reference architecturesへの組み込み可能性を追求
- Rubin platform、Vera CPUs、BlueField storage systemsを含む複数世代のNVIDIA基盤を早期導入
これらは、AI供給制約の中心がモデルではなく物理インフラにあるという認識に沿った施策だ。実際、電力接続や建設工程が遅れれば、計算資源の提供も遅れる。資金支援と技術統合を同時に進めることで、その実行リスクを下げようとしている点が重要である。
評価時の注意点
同リリースにはforward-looking statementsに関する注記があり、2030年までの5 gigawatts超という目標やソフトウェア統合の進展は、将来予測であり不確実性を伴うことが明示されている。したがって、今回の発表は方向性を示す強いシグナルではあるが、実績としては今後の建設進捗、電力供給、商用稼働データで確認する必要がある。
それでも、AIクラウド競争が短期調達中心から、金融・運用・技術を統合した産業スケールの計画へ移行していることを示す発表として、影響は大きい。
Related Articles
NVIDIAAIはThinking Machinesと提携し、frontier AI model training向けに少なくとも1 gigawatt規模のNVIDIA Vera Rubin systemを配備すると発表した。Thinking Machinesは、customizable AIを提供するplatformもこの基盤で支えるとしている。
OpenAIは2026年2月27日、$110Bの新規投資とAmazon・NVIDIAとの提携拡大を発表した。背景には900Mの週間ChatGPT利用者、9 millionの有料法人利用者、そして急増するCodex需要があると説明している。
NVIDIAは主要通信事業者と装置ベンダーがopen and secure AI-native platformsを基盤に6Gを構築することで合意したと発表した。今回の動きは、6G競争をradiosとspectrumだけでなくprogrammable AI infrastructureを巡る競争へ広げるものだ。
Comments (0)
No comments yet. Be the first to comment!