NVIDIA와 Marvell, semi-custom AI infrastructure용 NVLink Fusion 협력 확대
Original: NVIDIA and @MarvellTech join forces through NVLink Fusion to expand ecosystem and give customers greater choice and flexibility in developing next-generation infrastructure. https://nvidianews.nvidia.com/news/nvidia-ai-ecosystem-expands-as-marvell-joins-forces-through-nvlink-fusion View original →
NVIDIA가 X에서 밝힌 내용
2026년 3월 31일, NVIDIA Newsroom 계정은 X에서 Marvell이 NVLink Fusion을 통해 NVIDIA와 협력해 ecosystem을 넓히고 차세대 infrastructure를 구축하는 고객에게 더 많은 선택지와 유연성을 제공한다고 밝혔다. 연결된 보도자료를 보면, 이는 단순한 interconnect 업데이트가 아니다. NVIDIA 중심 AI 시스템에 더 많은 silicon과 networking 조합을 붙일 수 있게 하려는 보다 넓은 전략이다.
문체는 전형적인 기업 발표문이지만, 제품 전략 신호는 분명하다. NVIDIA는 이번 협력이 Marvell을 자사의 AI factory 및 AI-RAN ecosystem과 NVLink Fusion으로 연결하고, 여기에 silicon photonics 협력과 $2 billion 규모의 Marvell 투자까지 포함한다고 설명한다.
파트너십의 구체적 범위
보도자료에 따르면 Marvell은 custom XPUs와 NVLink Fusion-compatible scale-up networking을 제공한다. NVIDIA는 주변 기술 스택으로 Vera CPU, ConnectX NICs, BlueField DPUs, NVLink interconnect, Spectrum-X switches, 그리고 rack-scale AI compute를 제공한다고 밝혔다.
여기서 NVLink Fusion의 설명이 중요하다. NVIDIA는 이를 semi-custom AI infrastructure를 구축할 수 있게 해 주는 rack-scale platform으로 제시하면서도, 여전히 NVIDIA 시스템과 완전히 호환된다고 강조한다. 즉, 완성형 full-stack box만 파는 것이 아니라, 파트너가 custom compute와 networking을 끼워 넣을 수 있는 호환 계층 자체를 장악하려는 움직임으로 읽힌다.
- NVIDIA는 NVLink Fusion이 heterogeneous AI system을 만들면서도 NVIDIA 인프라와의 호환성을 유지하게 해 준다고 설명한다.
- Marvell은 custom XPU, scale-up networking, silicon photonics 역량을 제공하는 파트너로 배치된다.
- 보도자료는 NVIDIA가 Marvell에 $2 billion을 투자했다고도 밝힌다.
왜 중요한가
이 발표가 고신호인 이유는 AI infrastructure 경쟁이 동시에 분산과 집중을 함께 보여 주기 때문이다. 한편으로 hyperscaler와 대형 기업은 표준 레퍼런스 설계보다 더 차별화된 시스템을 원한다. 다른 한편으로 그런 custom system도 기존 software, networking, supply chain 생태계와 맞물리려면 지배적인 interoperability layer가 필요하다.
NVIDIA 발표에서 읽히는 하나의 추론은, NVLink Fusion이 파트너 silicon을 흡수하면서도 플랫폼 통제력을 유지하기 위한 전략이라는 점이다. 고객은 custom compute를 넣을 수 있지만, 그것이 NVIDIA interconnect, networking, rack architecture, ecosystem 위에서 작동하도록 만들겠다는 메시지에 가깝다. 이 구조가 자리 잡으면 고객이 더 많은 semi-custom 설계를 원하더라도 NVIDIA는 핵심 영향력을 유지할 수 있다.
물론 주의점은 있다. 이 자료는 forward-looking press release이지, 이미 대규모 생산 환경에서 검증된 customer case study는 아니다. 그럼에도 3월 31일 X 게시물은 AI infrastructure 경쟁이 단순히 가장 빠른 accelerator를 넘어, custom rack-scale AI system의 interoperability layer를 누가 장악하느냐로 이동하고 있음을 보여 준다는 점에서 충분히 중요하다.
Related Articles
Thinking Machines Lab은 NVIDIA와 다년간 전략적 파트너십을 맺고 차세대 Vera Rubin 시스템을 최소 1GW 규모로 배치하겠다고 밝혔다. 양사는 training·serving 시스템 공동 설계와 함께 enterprise, research institution, scientific community로 frontier AI 및 open model 접근을 넓히는 계획도 제시했다.
NVIDIA와 Emerald AI는 주요 energy 기업들과 함께 AI factory가 더 빠르게 grid에 연결되면서도 전력 시스템을 지원하는 flexible asset으로 동작하는 설계를 추진한다고 밝혔다. 발표에는 Vera Rubin DSX reference design, DSX Flex, Emerald Conductor가 핵심 구성으로 제시됐다.
NVIDIA와 Thinking Machines Lab은 2026년 3월 10일 최소 1 gigawatt 규모의 차세대 NVIDIA Vera Rubin 시스템을 배치하는 장기 파트너십을 발표했다. 양사는 training·serving system 공동 설계와 함께 NVIDIA의 전략적 투자도 포함한다고 밝혔다.
Comments (0)
No comments yet. Be the first to comment!