NVIDIAとThinking Machines、1 gigawattのVera Rubin配備を計画
Original: We’re thrilled to partner with @thinkymachines to deploy at least 1 gigawatt of NVIDIA Vera Rubin systems for frontier AI model training. View original →
NVIDIAAIは2026年3月10日、Thinking Machinesと提携し、frontier AI model training向けに少なくとも1 gigawatt規模のNVIDIA Vera Rubin systemを配備するとXで発表した。あわせて示されたThinking Machines側の説明では、この提携はfrontier trainingだけでなく、customizable AIを提供するplatformを支えるためのものだとしている。
これは現在のfrontier lab基準で見ても非常に大きいinfrastructure signalだ。gigawatt-scaleのbuildoutは、単にGPU台数を増やすという話ではなく、power、cooling、networking、capital expenditureまで含む大規模なindustrial projectに近い。次世代のmultimodal systemや長いtraining cycleを回すには、それだけの物理基盤が必要になっていることを改めて示している。
Thinking Machinesは、customizableでgenerally capableなAI systemと、長期的なinfrastructure qualityを重視する立場を打ち出してきた。そこにNVIDIAのVera Rubin世代が入ることで、同社は初期段階から強いcompute anchorを持つことになる。同時にNVIDIAにとっても、次世代frontier labの成長を自社platformの上に乗せる戦略的な意味がある。
注目点
- 新しいfrontier labが次世代GPUの大規模配備計画を公にした。
- leading AI programの競争力がmodel architectureだけでなくinfrastructure scaleにも大きく左右されることを示している。
- これは次のfrontier model開発が、誰が早くpower、supply chain、deployment partnerを確保できるかに左右される可能性を示唆している。
今回のpostではproduct timelineやmodel release dateまでは明らかにしていない。それでも、Thinking Machinesがresearch positioningから具体的なinfrastructure commitmentへ急速に進んでいること、そしてNVIDIAがVera Rubin systemをその中核に据えようとしていることははっきりしている。
Primary sources: NVIDIAAI on X、Thinking Machines Lab。
Related Articles
AWSは2026年3月16日、NVIDIAとの協業をchipとnetworkingからsoftware、data movement、Amazon Bedrock model serviceまで拡大すると発表した。両社は2026年からAWS Region全体で1 million超のGPU提供を計画し、Blackwell、Nemotron、NIXL integrationをproduction AI workload向けに強化する。
AnthropicはApril 6, 2026、GoogleとBroadcomから2027開始予定のnext-generation TPU capacityをmulti-gigawatt単位で確保したと発表した。run-rate revenueが$30 billionを超え、million-dollar customersがFebruary以降で倍増する中、この契約はinfrastructure scaleと需要拡大の両方を映している。
OpenAIは2026年3月31日、1220億ドルの資金調達を完了し、post-money valuationは8520億ドルになったと発表した。今回の調達はcompute拡張と製品、enterprise、developer基盤の拡大に充てるという。
Comments (0)
No comments yet. Be the first to comment!