Nvidiaは、2025年にデータセンター向けのAIおよびHPC用途に対応したBlackwell Ultra GPU(B300シリーズ)を投入し、続く2026年には次世代Vera Rubin GPUを展開する計画を明らかにした。Blackwell Ultraは12段積層のHBM3Eメモリや新型ネットワーク技術を採用し、現行B200シリーズ比で最大50%の性能向上が見込まれる。
さらに、Vera Rubinはまったく新しいRubinアーキテクチャを基盤とし、HBM4Eメモリや新型CPU、次世代NVLink 6スイッチを統合したプラットフォームとして登場する。2027年にはTSMCのCoWoS技術を活用した12スタック構成のHBM4E搭載モデルも検討されており、Nvidiaは3月開催のGTCにおいてRubinやそれ以降のロードマップに言及する見通しである。
Blackwell Ultraが示すデータセンター向けGPUの技術的進化とNvidiaの戦略

Nvidiaは2025年に投入予定のBlackwell Ultra(B300シリーズ)において、データセンター向けGPUの性能向上とシステム設計の自由度拡大を実現する構えである。HBM3Eメモリは8スタック構成で、12段積層により最大288GBの容量を確保する設計が明らかにされた。また、Mellanox Spectrum Ultra X800 Ethernetスイッチを組み合わせ、512ポートをサポートする高密度ネットワークインフラを構築する。Nvidiaが公式には言及していないものの、B200シリーズ比で50%程度の性能向上が期待されるという非公式情報も浮上している。
こうしたBlackwell Ultraの設計思想には、単なる計算能力の増強にとどまらず、AIワークロードの効率化や、分散システム全体の最適化を目指すNvidiaの意図が見て取れる。特に、メモリ帯域の飛躍的な拡張と、スケーラブルなネットワーク設計の強化は、大規模AIモデルのトレーニングや推論処理を視野に入れた布石と考えられる。さらに、パートナー企業への設計自由度の拡張は、各社が独自のシステム構築を進めやすくし、エコシステム全体の多様化を促す要因となる。
NvidiaはGPU単体の性能競争に留まらず、システムレベルの最適化を通じたAI時代のインフラ標準を形成する動きを強めている。Blackwell Ultraは、その過程における重要なマイルストーンであり、AIコンピューティングを支える次世代基盤の先駆けとなる可能性がある。今後の実際の性能検証や、パートナー企業の採用動向が、Nvidiaの戦略全体を占う試金石となる。
Rubinアーキテクチャがもたらす次世代AIインフラの可能性と技術的挑戦
2026年に登場予定のVera Rubin GPUは、Nvidiaの新アーキテクチャ「Rubin」を採用する次世代製品として位置付けられる。現行のBlackwell UltraがHBM3Eを採用するのに対し、Vera RubinではHBM4Eを採用し、最大288GBのメモリ容量を実現する見通しである。加えて、Rubinプラットフォームには、Vera CPUや3600GB/sの帯域を持つNVLink 6スイッチ、1600Gb/sに対応するCX9ネットワークカード、X1600スイッチなどが含まれ、GPU単体ではなくプラットフォーム全体での性能最適化が図られる。
Rubinアーキテクチャが特に重要視されるのは、AGI(汎用人工知能)に向けたAI計算基盤としての役割である。AIモデルの規模が指数関数的に拡大する中、メモリ帯域やプロセッサ性能、システム間接続の全てを次世代レベルへ引き上げる必要がある。NvidiaがVera Rubinを単なる製品更新ではなく、アーキテクチャ刷新と位置付ける背景には、次世代AIインフラ競争において他社に対する優位性を確立する狙いがあると考えられる。
NvidiaはGTC2025においてVera Rubinの詳細を明らかにする可能性があるが、さらに注目すべきはRubin Ultraやそれ以降の製品構想である。2027年にはTSMCのCoWoS技術を活用した5.5レチクルサイズのインターポーザーを採用し、12スタックHBM4Eを搭載するという未確認情報も存在する。こうした長期構想を公にする背景には、NvidiaがAIインフラの未来像を主導する意志と、パートナー企業への技術的指針提示という二つの狙いがあると見られる。
Rubin以降を見据えたNvidiaのロードマップとAI時代の覇権争い
NvidiaはVera Rubinの先に続くGPUロードマップについても既に構想を明らかにしている。2027年にはRubin Ultraが登場し、TSMCの最先端CoWoS技術を採用することで、従来のパッケージ設計の限界を超える高密度実装を目指す。5.5レチクルサイズのインターポーザーや100mm×100mmの基板設計など、技術的挑戦は多岐にわたる。Nvidiaはパートナー企業と連携し、Rubin Ultraを基点に次世代AI基盤構築を加速させる考えと見られる。
こうした長期ロードマップの背後には、AIコンピューティング分野における覇権争いがある。データセンターGPU市場ではNvidiaが圧倒的シェアを握るものの、AIワークロードの多様化に伴い、各国政府やクラウド事業者、研究機関などが求める要件は年々高度化している。Nvidiaは独自技術を先行公開することで、他陣営に対する技術的優位性を早期に示し、市場全体の標準形成を主導する意図があると考えられる。
Rubin Ultra以降に続くアーキテクチャは現時点では明らかになっていないが、GTC2025ではフアンCEO自らが言及する可能性がある。Nvidiaが描くAIインフラの将来像は、単なる半導体技術の進化にとどまらず、データセンターの設計思想やAIモデル開発のあり方をも左右する存在となる可能性がある。Rubin以降の戦略が、次世代AI基盤の行方を決定づける分岐点となることは間違いない。
Source:Tom’s Hardware