NVIDIA、Thinking Machines LabとVera Rubin 기반のgigawatt-scale戦略提携を発表
Original: NVIDIA and Thinking Machines Lab Announce Long-Term Gigawatt-Scale Strategic Partnership View original →
NVIDIAとThinking Machines Labは2026年3月10日、次世代 NVIDIA Vera Rubin system を少なくとも1 gigawatt規模で導入する multiyear strategic partnership を発表した。NVIDIAによると、この infrastructure は Thinking Machines の frontier model training と customizable AI platform を支え、deployment は early next year を目標にしている。
今回の合意は、単純な hardware 調達契約よりも広い。両社は NVIDIA architecture 向けの training system と serving system を共同で設計し、enterprises、research institutions、scientific community に対して frontier AI と open models へのアクセスを広げるとしている。NVIDIAは同時に、Thinking Machines Lab に対する significant investment も行った。
発表された主要項目
- 少なくとも1 gigawatt規模の NVIDIA Vera Rubin system
- deployment の目標時期は early next year
- NVIDIA architecture 向け training・serving system の共同設計
- enterprises と researchers への frontier AI / open models のアクセス拡大
- Thinking Machines Lab への NVIDIA の strategic investment
この発表が重要なのは、frontier AI の競争において compute commitment そのものが実行力の指標になっているためだ。新しい AI lab が最前線で戦うには、優秀な研究者だけでは足りず、数年単位の infrastructure roadmap と供給の確実性が必要になる。今回の提携は、Thinking Machines Lab がその条件を公に確保したことを示している。
NVIDIAにとっても意味は大きい。Vera Rubin 世代の platform への移行を、長期のパートナーシップとして押さえられるからだ。しかも関係は chip 供給に留まらず、その上で動く software stack と serving architecture にまで及ぶ。NVIDIAは hardware から運用モデルまで影響範囲を広げようとしている。
今後の焦点は execution にある。early next year の deployment がどの速度で進むのか、そして Thinking Machines Lab がこの compute footprint をどの model / product strategy につなげるのかが問われる。それでも、少なくとも1 gigawattという数字だけで、AI infrastructure race が次の規模感に入ったことは明確だ。
Related Articles
NVIDIADCは2026年3月17日のX投稿で、Groq 3 LPXをVera Rubin platform向けのrack-scale low-latency inference acceleratorとして紹介した。NVIDIAの3月16日付press releaseとtechnical blogによれば、LPXは256基のLPU、128GBのon-chip SRAM、640 TB/sのscale-up bandwidthを備え、Vera Rubin NVL72と組み合わせてagentic AI向けのheterogeneous inference pathを形成する。
Thinking Machines LabはNVIDIAと複数年の戦略提携を結び、次世代Vera Rubin systemsを少なくとも1GW規模で導入すると発表した。両社はtraining・serving systemの共同設計に加え、enterprise、research institution、scientific community向けにfrontier AIとopen modelへのアクセス拡大も進めるとしている。
AlphabetはAnthropicにまず$10 billionを入れ、目標達成ならさらに$30 billionを積む。数日前のAmazonの最大$25 billion表明まで重なり、フロンティアAI競争はモデル比較より先に電力・チップ・データセンターを押さえる資本戦に変わった。
Comments (0)
No comments yet. Be the first to comment!