NVIDIAとEmerald AI、flexible AI factoryをgrid asset化する電力設計を提示
Original: NVIDIA and Emerald AI Join Leading Energy Companies to Pioneer Flexible AI Factories as Grid Assets View original →
NVIDIAとEmerald AIはMarch 23, 2026のCERAWeek 2026で、AES、Constellation、Invenergy、NextEra Energy、Nscale Energy & Power、Vistraと協力し、新しい形のAI factoryを進めると発表した。狙いは、大規模AI data centerを単なる電力需要家として扱うのではなく、より早くgridへ接続し、必要に応じて電力系統も支えるflexible energy assetとして設計することにある。
その基盤として示されたのが、NVIDIA Vera Rubin DSX AI Factory reference designとDSX Flex software libraryだ。NVIDIAによれば、DSX FlexはAI factoryをpower-grid servicesへ接続するためのsoftware層であり、Emerald AIのConductor platformはonsite generation、batteries、behind-the-meter resourcesとcompute schedulingを同時に制御する。これにより、AI compute tenantのquality of serviceを維持しながら、grid状況に応じて柔軟に電力対応できるようにするという。
背景には、gigawatt-scale AI projectが直面するinterconnectionの遅さがある。co-located generationやstorageをbridge powerとして先行活用する方法はあるが、それらを恒久的にgridから切り離すとasset utilisationが落ち、AI outputあたりの長期コストも高くなりやすい。NVIDIAとEmerald AIは、hybrid AI factoryがまずbridge powerで立ち上がり、その後は同じ資産をgridへ柔軟に返せる構成の方が効率的だと説明する。co-located resourceがない場合でも、最初からgrid-connectedなflexible AI factoryとして構築できるという。
NVIDIAは、この種のpower-flexible AI factoryがU.S. power system全体で最大100 gigawattsのcapacityを引き出す助けになる可能性があると述べた。optimized infrastructure design、existing assetの有効活用、限定的なgrid stress時のflexible operationを組み合わせることで、より大きなgrid expansionの必要性を抑えられるという考え方だ。参加したenergy companiesも、time to powerの短縮、peak demand圧力の緩和、grid reliabilityの向上に資するとの見方を示した。
さらにNVIDIAは、DSX Flexをlater this yearにVirginiaのNVIDIA AI Factory Research Centerでcommercial scale展開する予定だとした。この施設はVera Rubin infrastructureを使う世界初期のpower-flexible AI factoryの1つになる計画だ。今回の発表は、AI infrastructureの競争軸がGPU性能だけでなく、compute、storage、generation、grid servicesを一体設計する段階へ移っていることを示している。
Related Articles
NVIDIAとEmerald AIは2026年3月23日、AES、Constellation、Invenergy、NextEra Energy、Nscale Energy & Power、Vistraとともにpower-flexible AI factory構想を進めると発表した。Vera Rubin DSXとDSX Flexを土台に、AI campusをより早く接続し、受け身の負荷ではなくgrid assetとして動かすことを狙う。
Thinking Machines LabはNVIDIAと複数年の戦略提携を結び、次世代Vera Rubin systemsを少なくとも1GW規模で導入すると発表した。両社はtraining・serving systemの共同設計に加え、enterprise、research institution、scientific community向けにfrontier AIとopen modelへのアクセス拡大も進めるとしている。
Cloudflareは2026年3月24日、Armと協力してArm AGI CPUを自社のグローバルネットワークへ展開すると発表した。Armのニュースルームは、このチップをArm初の量産シリコン製品と位置づけ、accelerator管理、control plane、APIホスティングなどのAIデータセンター用途を狙うとしている。
Comments (0)
No comments yet. Be the first to comment!