OpenAIと Pacific Northwest National Laboratory は DraftNEPABench を公開し、document-heavy な NEPA 業務で coding agents を評価した。18 federal agencies にまたがる tasks で、subsection ごとに 1 to 5 hours、最大およそ 15% の drafting time 削減余地が示された。
#infrastructure
RSS FeedOpenAIは $730B pre-money valuation で $110B を調達し、Amazon と NVIDIA を軸に infrastructure を拡張すると発表した。Codex、ChatGPT、enterprise 導入の急成長がその背景だとしている。
Metaは2026年3月11日、MTIA 300からMTIA 500まで続くin-house AI chipのロードマップを公表した。Metaはcustom siliconを通じて、ranking、recommendation、そして特にGenAI inferenceのコスト構造を自社規模に最適化しようとしている。
Anthropicは2026年2月12日、Series Gで$30Bを調達し、post-money valuationは$380Bになったと発表した。会社はこの資金をfrontier research、product development、infrastructure expansionに使うとしている。
OpenAIは2026年3月6日、Sachin Katti の投稿を repost し、ウィスコンシン州 Port Washington のサイトで建設が進行中だと伝えた。これは Stargate と partner 主導の compute 戦略が実際の建設フェーズに入ったことを示すシグナルだ。
Together AIはMarch 12, 2026にreal-time voice agent向けone-cloud stackを公開すると発表した。公開資料にはunder-500ms latency、25+ regionでのscaling、そしてvoice-agent deploymentでtime-to-first-64-tokensを77msまで下げたkernel最適化の事例が含まれている。
Anthropicは2026年3月10日、シドニーがアジア太平洋で4番目のオフィスになると発表した。ANZ地域でのenterprise・startup・research需要に対応するとともに、data residency要件を見据えた現地compute拡張も検討している。
Metaはnext-gen AIの拡張にはcustom siliconが重要だとしてMeta Training and Inference Accelerator(MTIA)のロードマップを公開した。従来のchip cycleより速いmodel architectureの変化に対応するため、2年間で4世代を進めたと説明している。
OpenAIとAmazonは2026年2月27日、multi-year strategic partnershipを発表した。発表にはAmazon Bedrock向けStateful Runtime Environmentの共同開発、OpenAI FrontierのAWSによるexclusive third-party distribution、約2 gigawattsのTrainium capacity、そしてAmazonによる$50 billion投資が含まれる。
NVIDIAAIはThinking Machinesと提携し、frontier AI model training向けに少なくとも1 gigawatt規模のNVIDIA Vera Rubin systemを配備すると発表した。Thinking Machinesは、customizable AIを提供するplatformもこの基盤で支えるとしている。
MetaはAMDとの長期契約により、最大6GWのAMD Instinct GPU容量をAIインフラ向けに確保すると発表した。初回出荷は2026年後半にHelios rack-scale systemで始まる予定だ。
OpenAIは2026年2月27日、$110Bの新規投資とAmazon・NVIDIAとの提携拡大を発表した。背景には900Mの週間ChatGPT利用者、9 millionの有料法人利用者、そして急増するCodex需要があると説明している。