NVIDIAはGTC 2025において、AIデータセンターの設計思想を根本から刷新する新技術群を発表した。主軸となるBlackwell Ultra GPUはTensorコアとTransformerエンジンの性能向上に加え、最大30ペタFLOPSの演算力と288GBのHBMメモリを搭載し、次世代LLMの推論と学習に特化する。

さらに、600kW対応の「NVL576ラック」や、ASICと光コンポーネントを統合したCPO(Co-Packaged Optics)により、1.6Tbpsの帯域幅と従来比3.5倍のエネルギー効率を実現。CEO黄仁勲はこれを「百万GPU規模のAIファクトリー時代の到来」と位置づけ、TSMCやCorningらとの連携を強調した。

チップ単体の性能競争を超え、冷却・電力・光通信まで含めた包括的なAI基盤構築に向けた一手と見られ、ハイパースケールの概念自体を再定義する試みとなっている。

Blackwell UltraとNVL576ラックが示す次世代AI処理の骨格

GTC 2025で発表されたBlackwell Ultraアーキテクチャは、AI演算の高速化と効率化を目的に設計され、注意層の処理能力を2倍に引き上げる強化Tensorコアと、FP4/FP6に対応したTransformerエンジンを搭載している。

HBM3eおよびHBM4の8スタック構成により、総メモリ容量は288GBに達し、大規模言語モデル(LLM)のトレーニングや推論において重要な役割を果たすと見られる。最大30ペタFLOPSのAI性能を発揮するとされ、SuperChipに匹敵する処理能力を、より簡素な構成で実現する。

このGPUを基盤とする「NVL576ラック」は、88コアARM CPUとRubin GPUを統合したVera Rubin Ultra SuperChipを576基搭載し、消費電力は600kWに達する。推論時には15エクサFLOPSを実現する設計となっており、冷却には液体冷却を前提とする。1ラックを4つのポッド、1ポッドを18のブレード、各ブレードに8GPUという高密度構成とし、帯域幅は1.8TB/sに達するNVLink-C2Cを採用する。

これらの設計は、従来の「より速く、より大きく」という性能向上に加え、冷却・電力設計といったインフラ面での刷新も意図しており、1MW級ラック時代の到来を見据えた布石と位置づけられる。ハードウェアの進化が、AIファクトリーの規模拡張と運用効率の最適化を同時に促す点において、極めて戦略的な意味を持つ。

CPO技術がもたらす光通信の転換点とその広がり

NVIDIAが発表したCo-Packaged Optics(CPO)は、ASICと光通信コンポーネントを一体化する設計により、1.6Tbpsのスイッチ帯域幅と大幅な電力効率の向上を実現する技術である。従来のトランシーバーを不要とし、消費電力やレイテンシーを削減しながら、冷却効率や筐体の設計自由度も飛躍的に高まる。GTC 2025では、このCPOが次世代のAIファクトリーの根幹技術として位置づけられた。

AI訓練時におけるデータ転送の低レイテンシー化と信号品質の向上により、分散学習の効率が向上し、大規模モデルに対するスケーラビリティ確保が可能となる。また、液体冷却との親和性も高く、高密度な演算モジュールを収めるラック設計との整合性も取れている。黄仁勲CEOが語る「百万GPU規模のAIファクトリー」という構想において、通信基盤の飛躍は不可欠であり、CPOの実装はその第一歩といえる。

TSMCとの協業によりSoICによる3Dチップスタック技術とも連携し、CorningやFoxconnなど多岐にわたるパートナーが開発体制に参画することで、エコシステムの広がりも見込まれる。スケールメリットのみならず、安定供給や地政学的リスクの軽減といった側面でも、CPOを中心とした通信設計の革新は、戦略的に極めて重要な意味を持つと考えられる。

Source:Data Center Frontier