NVIDIA、GTC 2026でFeynman AIチップを予告 — TSMC 1.6nmプロセス採用
NVIDIAのJensen Huang CEOは、2026年3月16〜19日にサンノゼで開催されるGTC 2026で「世界を驚かせる」新チップを発表すると予告した。業界アナリストはNVIDIAの次世代Feynmanアーキテクチャが目玉になると見ている。
TrendForceが2026年2月25日に報じたところによると、FeynmanはTSMCの最先端A16(1.6nmクラス)プロセスで製造されるNVIDIA初の製品になる見通しだ。主な予想スペック:
- プロセス:TSMC A16(1.6nmクラス、Super Power Rail)
- メモリ:HBM4 / HBM4E
- インターコネクト:シリコンフォトニクスによる光接続
- I/Oダイ:Intel 14Aまたは18A+EMIBパッケージング(噂)
GTC 2026では、すでに3nmで量産中のVera Rubinプラットフォーム(R100)のアップデートも予定。SamsungはHBM4の初出荷を2月12日に完了。SK hynixは2026年のNVIDIA向けHBM4需要の約3分の2を供給する見込みだ。
Feynmanの量産は2028年開始予定で、顧客出荷は2029〜2030年にかけて。GTC 2026はロードマップ発表の場となるが、今後10年のAIアクセラレータ市場を左右する内容になりそうだ。
出典:TrendForce
Related Articles
HNがこのRAM shortage storyに反応した理由は、AI data center向けHBM需要がphones、laptops、handheldsの価格にもつながるという物理的な連鎖だった。
Googleは第8世代TPUを学習用8tと推論用8iに分けた。8tはpod当たりnearly 3xの計算性能と121 exaflopsを、8iは19.2 Tb/sの相互接続と最大5x低いオンチップ遅延を掲げ、エージェント時代に学習とサービングの要件が完全に分かれたことを示している。
今回の要点は新しい提携そのものではない。NVIDIAとGoogle CloudはA5X Rubin基盤を単一サイト8万基、マルチサイトで96万基まで拡張でき、推論コストと電力当たり処理量を前世代比で最大10倍改善できると示した。
Comments (0)
No comments yet. Be the first to comment!