軌道上のGPU clusterが商用段階へ、Nvidia Orin 40基で顧客18社
Original: The largest orbital compute cluster is open for business View original →
長いあいだ「宇宙data center」は、customersよりkeynote slidesのための言葉に見えた。だが構図は少しずつ変わり始めている。ただし、最大級のhypeが描いた形とは違う。4月13日のTechCrunch報道によれば、Kepler Communicationsは1月に打ち上げたorbital compute clusterが現在軌道上で最大規模であり、10基のoperational satellitesに載せた約40基のNvidia Orin edge processorsをlaser communications linksで結んでいる。
この話を現実に見せる数字はhardware数だけではない。Keplerはすでに18 customersを持ち、新たなcustomerであるSophia Spaceは2機のspacecraft上にある6基のGPUへ自社OSを展開して試験する予定だ。TechCrunchはこれを、data-center風software setupを軌道上で試す初めての事例として伝えた。2030年代の巨大playerが語る宇宙AI工場とは違い、こちらはもっと狭く、もっと地に足がつき、短期ではむしろ実用的だ。
Keplerの近未来の論理は明快だ。宇宙computeの最初の市場は巨大trainingではなく、dataが生まれる場所の近くで動くinferenceとsensor processingだというものだ。Mina Mitry CEOはTechCrunchに対し、大電力を食うが遊休時間も多い巨大processorより、継続的にinferenceを回せるdistributed GPUsの方が有効だと語った。要するに、これはedge computingの議論を地球外へ移したものだ。
商業面の含意も小さくない。satellitesが自分たちのdataを軌道上でより多く処理できれば、あらゆるbitを地上へ戻してから判断する必要が減る。これはremote sensing、radar、政府系workloadsのようにlatencyとbandwidthのコストが重い領域で特に効く。Keplerはその種の処理でU.S. militaryを重要customerの一つと見ている。宇宙data centerが普通になる日はまだ遠いが、このclusterは最初の有効市場が巨大なsci-fi cloudではなく、dataが生まれる場所で回る常時inferenceかもしれないと示している。
Related Articles
NVIDIAは2026年3月17日のGTC 2026で、通信事業者がAI gridを構築し始めていると説明した。latency、cost、data localityが重要なinferenceをnetwork edgeへ近づけ、通信事業者のAI monetization基盤にしようという構想だ。
r/MachineLearningの投稿とリンク先のbenchmark記事は、RTX 5090のbatched FP32 SGEMMが非効率なcuBLAS経路に入り、GPU計算資源を大きく余らせていると主張する。
AI siliconへの投資熱がdata center大手の外まで広がるかを測る場面が来た。Reutersによれば、韓国のDeepXは国内上場の準備に入り、2026年前半のfunding round完了後にIPO主幹事を選び、その先のU.S. listingも視野に入れている。
Comments (0)
No comments yet. Be the first to comment!