韓国はAIインフラを民間の設備投資だけでは扱わなくなった。金融委員会による₩400 billion融資は、NAVERのGak Sejong拡張、GPU配備、HyperCLOVA X強化を通じて、AI主権を政策の言葉から実装の層へ押し下げる。
#ai-infrastructure
RSS FeedAlphabetはAnthropicにまず$10 billionを入れ、目標達成ならさらに$30 billionを積む。数日前のAmazonの最大$25 billion表明まで重なり、フロンティアAI競争はモデル比較より先に電力・チップ・データセンターを押さえる資本戦に変わった。
Googleは第8世代TPUを学習用8tと推論用8iに分けた。8tはpod当たりnearly 3xの計算性能と121 exaflopsを、8iは19.2 Tb/sの相互接続と最大5x低いオンチップ遅延を掲げ、エージェント時代に学習とサービングの要件が完全に分かれたことを示している。
今回の要点は新しい提携そのものではない。NVIDIAとGoogle CloudはA5X Rubin基盤を単一サイト8万基、マルチサイトで96万基まで拡張でき、推論コストと電力当たり処理量を前世代比で最大10倍改善できると示した。
HNはTPU 8tと8iを巨大な数値競争としてではなく、エージェント時代のインフラが学習用と推論用に分かれ始めた合図として読んだ。コメントも電力効率、メモリ壁、遅延の話に長く留まった。
HNがこのRAM shortage storyに反応した理由は、AI data center向けHBM需要がphones、laptops、handheldsの価格にもつながるという物理的な連鎖だった。
重要なのは、AI infrastructureの競争が単体GPU rentalからsupercomputer級のmanaged clusterへ移っていることだ。Google CloudはA4X Max bare-metal instanceが最大50,000 GPU clusterと従来比2倍のnetwork bandwidthを支えると書いた。
HNはGPU価格上昇を単なるinfra話としては扱わなかった。frontier modelへのaccessが絞られinferenceが高くなるなら、startupは最強modelを呼び放題という前提ではなく、procurement、routing、cache、evaluation、小型model戦略で戦うことになる。
Anthropicは2026年4月7日、GoogleおよびBroadcomと次世代TPU capacityを数ギガワット規模で確保する契約を結んだと発表した。同時にrun-rate revenueが300億ドルを超え、年換算100万ドル超を使う企業顧客も1,000社を上回ったと説明している。
`r/singularity` では、米国の計画中 data center の約半分が遅延または中止になっているという報道が話題になった。ポイントは、AI インフラの拡大を左右しているのが GPU だけではなく、transformer、switchgear、battery など電力設備の供給制約だという点にある。
OpenAIは2026年3月31日、$122 billionのfunding roundを完了し、post-money valuation $852 billionに達したと発表した。consumer、enterprise、API、Codex、compute accessを1つの成長flywheelとして説明した点が大きな焦点になっている。
NVIDIADCは2026年3月17日のX投稿で、Groq 3 LPXをVera Rubin platform向けのrack-scale low-latency inference acceleratorとして紹介した。NVIDIAの3月16日付press releaseとtechnical blogによれば、LPXは256基のLPU、128GBのon-chip SRAM、640 TB/sのscale-up bandwidthを備え、Vera Rubin NVL72と組み合わせてagentic AI向けのheterogeneous inference pathを形成する。