NVIDIAとMarvell、semi-custom AI infrastructure 向け NVLink Fusion 提携を拡大

Original: NVIDIA and @MarvellTech join forces through NVLink Fusion to expand ecosystem and give customers greater choice and flexibility in developing next-generation infrastructure. https://nvidianews.nvidia.com/news/nvidia-ai-ecosystem-expands-as-marvell-joins-forces-through-nvlink-fusion View original →

Read in other languages: 한국어English
AI Apr 1, 2026 By Insights AI 1 min read Source

NVIDIAがXで示した内容

2026年3月31日、NVIDIA NewsroomはXで、MarvellNVLink Fusionを通じてNVIDIAと連携し、ecosystemを拡大しながら次世代infrastructureを作る顧客により多くの選択肢と柔軟性を与えると投稿した。リンク先のpress releaseを見ると、これは単なるinterconnectの更新ではない。NVIDIA中心のAI systemに、より多くのsiliconとnetworkingの組み合わせを接続できるようにする広い戦略だ。

文面自体は企業発表だが、product strategyのシグナルは強い。NVIDIAはこの提携がMarvellを自社のAI factoryおよびAI-RAN ecosystemへNVLink Fusionで接続し、さらにsilicon photonics協業と$2 billionのMarvell投資を含むと説明している。

提携の中身

Releaseによれば、Marvellはcustom XPUsNVLink Fusion-compatible scale-up networkingを提供する。NVIDIAは周辺技術としてVera CPUConnectX NICsBlueField DPUsNVLink interconnectSpectrum-X switches、そしてrack-scale AI computeを提供するとしている。

ここで重要なのはNVLink Fusionの位置付けだ。NVIDIAはこれをsemi-custom AI infrastructureを構築するためのrack-scale platformとして説明しつつ、なおNVIDIA systemと完全互換だと強調する。つまり、固定のfull-stack boxだけを売るのではなく、partnerがcustom computeやnetworkingを差し込める互換レイヤーそのものを押さえようとしている。

  • NVIDIAはNVLink Fusionがheterogeneous AI systemを構築しつつ、NVIDIA infrastructureとの互換性を保てると説明する。
  • Marvellはcustom XPU、scale-up networking、silicon photonicsを担うpartnerとして位置付けられる。
  • ReleaseはNVIDIAがMarvellに$2 billionを投資したとも述べる。

なぜ重要か

この発表が高シグナルなのは、AI infrastructure競争が分散と集中を同時に進めていることを示すからだ。一方で、hyperscalerや大企業は標準的なreference designだけでなく、より差別化されたsystemを求めている。他方で、そのcustom systemもsoftware、networking、supply chainの既存ecosystemに接続できなければ拡張しにくい。

NVIDIAの発表から導ける一つの推論は、NVLink Fusionがpartner siliconを取り込みつつplatform controlを維持する戦略だということだ。顧客はcustom computeを設計できるが、それをNVIDIAのinterconnect、networking、rack architecture、ecosystemの周りで動かすよう促している。この構図が定着すれば、顧客がより多くのsemi-custom designを求めても、NVIDIAは中核的な影響力を保ちやすい。

もちろん注意点もある。これはforward-lookingなpress releaseであり、実運用の大規模customer case studyではない。それでも、3月31日のX投稿は、AI infrastructure競争が最速acceleratorの勝負だけでなく、custom rack-scale AI systemのinteroperability layerを誰が握るかへ移っていることを示す重要な更新だ。

出典: NVIDIA Newsroom X投稿 · NVIDIA Newsroom release

Share: Long

Related Articles

AI 6d ago 1 min read

Thinking Machines LabはNVIDIAと複数年の戦略提携を結び、次世代Vera Rubin systemsを少なくとも1GW規模で導入すると発表した。両社はtraining・serving systemの共同設計に加え、enterprise、research institution、scientific community向けにfrontier AIとopen modelへのアクセス拡大も進めるとしている。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.