궤도 위 첫 GPU cluster, Nvidia Orin 40개 싣고 실제 고객을 받기 시작했다
Original: The largest orbital compute cluster is open for business View original →
오랫동안 “우주 데이터센터”라는 말은 고객보다 keynote slide에 더 어울리는 개념처럼 들렸다. 그런데 그림이 조금씩 바뀌고 있다. 다만 가장 과장된 hype가 그렸던 방향은 아니다. 4월 13일 TechCrunch 보도에 따르면 Kepler Communications는 1월에 발사한 궤도 compute cluster가 현재 우주에서 가장 큰 규모이며, 10개의 operational satellites에 탑재한 약 40개의 Nvidia Orin edge processors를 laser communications links로 묶어 운용하고 있다.
이 이야기를 현실처럼 보이게 만드는 숫자는 hardware 개수만이 아니다. Kepler는 이미 고객 18곳을 확보했다고 했고, 새 고객인 Sophia Space는 두 대의 spacecraft에 있는 6개 GPU에 운영체제를 올려 시험할 예정이다. TechCrunch는 이를 data-center 스타일 소프트웨어 구성을 궤도에서 시도하는 첫 사례로 설명했다. 이건 2030년대 대형 플레이어들이 말하는 거대한 우주 AI 공장과는 다른 이야기다. 더 작고, 더 현실적이고, 단기적으로는 더 쓸모 있는 방향이다.
Kepler의 근거리 논리는 분명하다. 우주 compute의 첫 시장은 거대한 training이 아니라, 데이터가 만들어지는 자리 가까이에서 돌아가는 inference와 sensor processing이라는 것이다. Mina Mitry CEO는 TechCrunch에, 전력을 크게 먹지만 대부분 쉬고 있는 초대형 processor보다 지속적으로 inference를 돌릴 수 있는 distributed GPU가 더 실용적이라고 말했다. 결국 이건 edge computing 논리를 지구 밖으로 옮긴 셈이다.
상업적 함의도 생각보다 크다. 위성이 데이터를 더 많이 궤도에서 직접 처리할 수 있으면, 모든 bit를 지상으로 끌어내린 뒤 판단할 필요가 줄어든다. 이건 remote sensing, radar, 정부용 workload처럼 latency와 bandwidth 비용이 큰 영역에서 특히 중요하다. Kepler는 이런 처리 수요의 핵심 고객으로 미국 군도 지목했다. 우주 데이터센터가 일상이 되려면 아직 멀었지만, 이번 cluster는 첫 유효 시장이 거대한 sci-fi cloud가 아니라 데이터가 태어나는 자리의 상시 inference일 수 있다는 점을 보여준다.
Related Articles
NVIDIA가 2026년 3월 17일 GTC 2026에서 통신 사업자들과 AI grid 구축 움직임을 공개했다. latency와 cost, data locality가 중요한 inference를 network edge로 끌어내려 통신사의 AI monetization 기반을 만들려는 구상이다.
r/MachineLearning의 글과 연결된 benchmark writeup은 RTX 5090의 batched FP32 SGEMM이 비효율적인 cuBLAS 경로를 타며 GPU 계산 자원을 크게 남기고 있다고 주장한다.
AI silicon 투자 열기가 data center 거인들 밖으로 번질지 시험할 장면이 나왔다. Reuters에 따르면 South Korea의 DeepX는 국내 상장을 준비 중이며, 2026년 상반기 funding round를 마친 뒤 IPO 주관사 선정에 나서고 이후 U.S. listing 가능성도 열어두고 있다.
Comments (0)
No comments yet. Be the first to comment!