NVIDIAとThinking Machines、1 gigawattのVera Rubin配備を計画
Original: We’re thrilled to partner with @thinkymachines to deploy at least 1 gigawatt of NVIDIA Vera Rubin systems for frontier AI model training. View original →
NVIDIAAIは2026年3月10日、Thinking Machinesと提携し、frontier AI model training向けに少なくとも1 gigawatt規模のNVIDIA Vera Rubin systemを配備するとXで発表した。あわせて示されたThinking Machines側の説明では、この提携はfrontier trainingだけでなく、customizable AIを提供するplatformを支えるためのものだとしている。
これは現在のfrontier lab基準で見ても非常に大きいinfrastructure signalだ。gigawatt-scaleのbuildoutは、単にGPU台数を増やすという話ではなく、power、cooling、networking、capital expenditureまで含む大規模なindustrial projectに近い。次世代のmultimodal systemや長いtraining cycleを回すには、それだけの物理基盤が必要になっていることを改めて示している。
Thinking Machinesは、customizableでgenerally capableなAI systemと、長期的なinfrastructure qualityを重視する立場を打ち出してきた。そこにNVIDIAのVera Rubin世代が入ることで、同社は初期段階から強いcompute anchorを持つことになる。同時にNVIDIAにとっても、次世代frontier labの成長を自社platformの上に乗せる戦略的な意味がある。
注目点
- 新しいfrontier labが次世代GPUの大規模配備計画を公にした。
- leading AI programの競争力がmodel architectureだけでなくinfrastructure scaleにも大きく左右されることを示している。
- これは次のfrontier model開発が、誰が早くpower、supply chain、deployment partnerを確保できるかに左右される可能性を示唆している。
今回のpostではproduct timelineやmodel release dateまでは明らかにしていない。それでも、Thinking Machinesがresearch positioningから具体的なinfrastructure commitmentへ急速に進んでいること、そしてNVIDIAがVera Rubin systemをその中核に据えようとしていることははっきりしている。
Primary sources: NVIDIAAI on X、Thinking Machines Lab。
Related Articles
OpenAIは2026年2月27日、$110Bの新規投資とAmazon・NVIDIAとの提携拡大を発表した。背景には900Mの週間ChatGPT利用者、9 millionの有料法人利用者、そして急増するCodex需要があると説明している。
NVIDIAは主要通信事業者と装置ベンダーがopen and secure AI-native platformsを基盤に6Gを構築することで合意したと発表した。今回の動きは、6G競争をradiosとspectrumだけでなくprogrammable AI infrastructureを巡る競争へ広げるものだ。
NVIDIAとCoherentは2026年3月2日、AIデータセンター向け先端光学技術の長期提携を発表した。NVIDIAはCoherentへ20億ドルを投資し、複数年の供給・開発協力を拡大する。
Comments (0)
No comments yet. Be the first to comment!