NVIDIAとThinking Machines、1 gigawattのVera Rubin配備を計画

Original: We’re thrilled to partner with @thinkymachines to deploy at least 1 gigawatt of NVIDIA Vera Rubin systems for frontier AI model training. View original →

Read in other languages: 한국어English
AI Mar 11, 2026 By Insights AI 1 min read 2 views Source

NVIDIAAIは2026年3月10日、Thinking Machinesと提携し、frontier AI model training向けに少なくとも1 gigawatt規模のNVIDIA Vera Rubin systemを配備するとXで発表した。あわせて示されたThinking Machines側の説明では、この提携はfrontier trainingだけでなく、customizable AIを提供するplatformを支えるためのものだとしている。

これは現在のfrontier lab基準で見ても非常に大きいinfrastructure signalだ。gigawatt-scaleのbuildoutは、単にGPU台数を増やすという話ではなく、power、cooling、networking、capital expenditureまで含む大規模なindustrial projectに近い。次世代のmultimodal systemや長いtraining cycleを回すには、それだけの物理基盤が必要になっていることを改めて示している。

Thinking Machinesは、customizableでgenerally capableなAI systemと、長期的なinfrastructure qualityを重視する立場を打ち出してきた。そこにNVIDIAのVera Rubin世代が入ることで、同社は初期段階から強いcompute anchorを持つことになる。同時にNVIDIAにとっても、次世代frontier labの成長を自社platformの上に乗せる戦略的な意味がある。

注目点

  • 新しいfrontier labが次世代GPUの大規模配備計画を公にした。
  • leading AI programの競争力がmodel architectureだけでなくinfrastructure scaleにも大きく左右されることを示している。
  • これは次のfrontier model開発が、誰が早くpower、supply chain、deployment partnerを確保できるかに左右される可能性を示唆している。

今回のpostではproduct timelineやmodel release dateまでは明らかにしていない。それでも、Thinking Machinesがresearch positioningから具体的なinfrastructure commitmentへ急速に進んでいること、そしてNVIDIAがVera Rubin systemをその中核に据えようとしていることははっきりしている。

Primary sources: NVIDIAAI on XThinking Machines Lab

Share:

Related Articles

AI 5d ago 1 min read

NVIDIAは主要通信事業者と装置ベンダーがopen and secure AI-native platformsを基盤に6Gを構築することで合意したと発表した。今回の動きは、6G競争をradiosとspectrumだけでなくprogrammable AI infrastructureを巡る競争へ広げるものだ。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.