AMDは2026年に、128基のGPUを統合したラックスケールAIシステム「Instinct MI450X IF128」を投入し、NvidiaのVR200 NVL144に対抗する構えを見せている。このシステムは、Infinity FabricをEthernet経由で拡張し、2ラック間の連携を可能とする構成が特徴で、帯域1.8TB/s超のGPU間通信や最大2.4Tb/sの外部ネットワーク接続能力を実現する見込みである。
既存のMI300シリーズのスケーラビリティ限界を超える設計により、AMDはAI推論やHPC用途での競争力強化を狙う。ただし、パッシブ銅線によるラック間接続や複雑な構成要素に起因する製造リスクは依然残る。こうした課題に備え、同一アーキテクチャを基にした小型構成「MI450X IF64」の併用も計画されている。
128基GPUとInfinity Fabricによる構成が示すラックスケールAIの新潮流

AMDが2026年に投入予定の「Instinct MI450X IF128」は、従来の8基構成に制限されていたMI300シリーズの限界を大きく打破する設計となっている。128基のGPUを1Uサーバー16台に分散し、各サーバーにはEPYC “Venice” CPUと4基のMI450X GPUを搭載。
これらをInfinity Fabric over Ethernetで接続することで、1.8TB/s超の内部帯域を確保し、前世代では実現不可能だった規模のスケーリングドメイン内通信を可能とする。また、各GPUには800GbEネットワークカードを最大3枚まで装備でき、最大2.4Tb/sの外部ネットワーク帯域が提供される点も注目に値する。
この構成は、NvidiaがGB200シリーズで採用するアクティブ光ケーブル方式とは異なり、パッシブ銅線接続を採用している。コスト面や消費電力の削減が期待される一方で、信号品質や距離に関する技術的な課題も孕んでいる。特にPCIe 5.0リンクの帯域制約が、高速ネットワークカードの性能を十分に引き出せない可能性がある。
AMDはこれらの制限を認識した上で、同アーキテクチャを基にしたより単純な「MI450X IF64」構成も用意しており、導入初期の安定性を担保するための現実的な対応策といえる。今後の展開次第では、AI推論やHPC分野におけるAMDの戦略的ポジショニングに変化が生じる可能性がある。
Nvidiaへの対抗軸としての設計思想とリスクの分岐
Instinct MI450X IF128は、NvidiaのVR200 NVL144(GPU72基構成)を明確に意識した設計となっている。単純なGPU数だけで見ればAMDが上回る形となるが、性能比較は理論値に留まり、実効的な性能はソフトウェア最適化やインターコネクト性能の違いに大きく左右される。特にNvidiaはCUDAエコシステムやHopperアーキテクチャの成熟度に強みを持ち、AI推論・学習インフラ全体での優位性を維持している。これに対してAMDはInfinity Fabricの拡張や大規模帯域設計により、ハードウェアスペックでの差別化を試みる構図となる。
ただし、IF128の複雑な構成は量産・展開の過程で多くの不確実性を伴う。設計上の拡張性がそのまま市場競争力に転化するとは限らず、製造歩留まり、供給網、消費電力管理など、多面的な課題が成否を左右することになるだろう
。一方、同時に計画されているIF64構成は、単一ラック内の運用に特化した設計であり、展開速度と導入障壁の低さという観点でバランスの取れた提案となっている。AMDはこの二重構成戦略により、Nvidiaが支配するAIインフラ市場に複数の切り口から挑もうとしているが、その成果は最終的には実運用でのパフォーマンス次第となる。
Source: Tom’s Hardware