NVIDIAはGTC基調講演にて、次世代AI向けデータセンター用ハードウェア「Vera Rubin NVL576」を発表した。現行の「Blackwell Ultra GB300 NVL72」と比較して14倍の性能向上を謳い、1ラックあたり100ペタFLOPSのFP4計算性能と144TBのHBM4eメモリを実現する。

新たなアーキテクチャでは、従来のGPUカウント方式を改め、1パッケージあたり4つのレチクルサイズGPUを統合。これにより、2025年に登場予定の「Vera Rubin NVL144」は「Blackwell Ultra」の3.3倍の性能を達成し、2027年後半に登場する「Rubin Ultra NVL576」は更なる飛躍を遂げる。

また、データセンター向けArmベースCPU「Vera」も発表。88コア設計により最大176スレッドをサポートし、GPUとの1:1構成へと回帰する。なお、「Rubin Ultra NVL576」は600kWの消費電力を要し、価格についてはCEOのジェンスン・フアン氏が「価格を聞くようでは購入できない」と冗談交じりに述べるなど、その規模の大きさが際立つ発表となった。

AI向けデータセンターの進化を加速させるNVIDIAの次世代GPUアーキテクチャ

NVIDIAは、新たに発表された「Vera Rubin NVL576」によってAI推論性能の飛躍的向上を実現するとされる。この新しいGPUアーキテクチャは、既存の「Blackwell Ultra GB300 NVL72」ラックと比較して、単一のラックで実現される計算能力が14倍に達する。

特に、1つのGPUパッケージ内に統合された4つのGPUダイが大きな特徴で、これによって、従来の性能限界を突破し、AIに必要な膨大な計算資源を効率的に提供する。

加えて、「Rubin Ultra NVL576」は最大100ペタFLOPSの計算能力を誇り、1TBのHBM4eメモリが搭載される。この規模のデータセンター向けハードウェアは、従来のAIモデルのトレーニングや推論に必要な処理速度を大幅に向上させ、企業が扱うデータ規模に合わせて、インフラのスケールアップを促進することになる。

特に、スケールアウトを避け、スケールアップを目指す設計は、効率的な運用を求める企業にとって重要な要素となる。

NVIDIAの次世代ハードウェアは、単に計算性能を向上させるだけでなく、データセンター全体の運用効率も大きく変える可能性がある。これにより、AIを活用した新たなサービスや技術開発が加速し、産業全体に革命的な影響を与えるだろう。

性能向上の要因とGPUアーキテクチャの新たなアプローチ

「Vera Rubin NVL576」の発表における最も重要なポイントは、従来のGPU数え方の変更である。これまでは、GPUの数をラックに搭載されるBlackwell GPUの個数で表現していたが、次世代アーキテクチャでは「NVL」の数値を個々のGPUダイの数としてカウントする。この変更により、GPUの構造や性能がより明確に示されることとなり、性能の向上を具体的に理解することが可能となった。

「Vera Rubin NVL144」は、GPUの数自体は倍増していないものの、性能の向上は顕著であり、Blackwell Ultraの3倍以上の能力を発揮すると予測されている。このアーキテクチャの刷新は、特にAI推論性能において重要な役割を果たし、これまで以上に複雑なタスクや大規模なデータセットに対応できるようになる。

特に、HBM4メモリ帯域幅やオフラック帯域幅の大幅な強化は、データ転送速度の向上を意味しており、リアルタイムでのデータ処理に必要なスピードを確保するための重要な要素となる。

次世代GPUアーキテクチャのこのアプローチは、AI領域における新たな標準を作り出す可能性があり、企業のAI導入を支える基盤を強化することとなるだろう。

高性能なAIインフラのための新たなCPU設計

NVIDIAは、次世代GPUに加えて、データセンター向けの新しいArmベースCPU「Vera」も発表した。このCPUは、前モデル「Grace」の後継として、特にAI推論における性能向上を目指して設計された。Veraは、88個のカスタムArmコアを搭載し、最大176スレッドをサポートする。これにより、データセンターで必要とされる並列処理能力が飛躍的に向上することとなる。

また、「Vera」は1:1のGPUとCPUの比率を採用し、GPUとCPUの協調作業を最適化する。この設計は、GPU性能が向上するだけでなく、CPU側の処理能力も十分に活かすことができるため、全体的なシステムのパフォーマンスが最大化される。従来の「Grace」では、1つのCPUと2つのGPUの組み合わせが主流であったが、今回の変更により、データセンターでのAI推論やトレーニング作業がさらに効率化されるだろう。

これらの新しいCPUとGPUの組み合わせにより、NVIDIAは高性能AIインフラの提供をさらに加速し、企業が求めるスピードと効率を兼ね備えたデータセンター環境を提供することになる。

Source:HotHardware