オラクルはNvidia H200 GPUを搭載した「Oracle Cloud Infrastructure (OCI) Supercluster」を一般提供開始した。このスーパークラスターは最大65,536個のGPUをスケール可能であり、FP8性能のピークで260エクサフロップスを実現する。クラウドで利用可能な最大規模のAIスーパーコンピューターであると同社は主張している。
新たに導入されたカスタム設計のクラスターネットワークは、最大400GbpsのGPU間通信を可能とし、AIモデルの推論性能を大幅に向上。大規模言語モデル(LLM)の性能は最大1.9倍の向上が期待されている。価格は従来のH100インスタンスと同じくGPU1時間あたり10ドルで提供され、コスト効率も維持している。
さらに、オラクルは2025年上半期を目処に、次世代GPU「Nvidia Blackwell」を最大131,072個搭載した次世代スーパークラスターの構築計画を発表。この技術的進化がもたらす市場競争の行方が注目される。
GPUスーパークラスターの技術的特性と設計がもたらす新たな可能性
オラクルの「OCI Supercluster」は、Nvidia H200 GPUを基盤とし、独自の技術設計で従来を大きく上回る性能を実現した。特筆すべきは、RDMA over Converged Ethernet Version 2(RoCE v2)を採用したカスタム設計のクラスターネットワークである。
これによりGPU間で最大400Gbpsの通信速度を達成し、AIや機械学習モデルのトレーニング・推論が格段に効率化される。さらに、ストレージとGPU間のデータ移動に特化した200Gbpsのフロントエンドネットワークも新たにアップグレードされている。
各コンピュートインスタンスは、8つのNvidia H200 GPUと2基のIntel Sapphire Rapids 8480+ CPUを搭載し、従来モデルに比べメモリ性能を大幅に向上させた。この仕様は、特に大規模言語モデル(LLM)や生成型AIの活用を念頭に設計されている。たとえば、FP8精度を活用することで、260エクサフロップスという極めて高い計算能力を提供する点が注目される。これにより、複雑なアルゴリズムやシミュレーションの処理がこれまでにない速度で可能になるだろう。
オラクルが提案するこの設計は、特にAI分野での競争力を高める要素として重要である。Nvidia ConnectX-7ネットワークインターフェースカード(NIC)を用いた通信の最適化により、今後のAI活用における革新が期待される。これに基づくさらなる技術の発展は、クラウドコンピューティング全体の進化を促進すると考えられる。
コスト競争力を維持する価格戦略の背景にある意図
「OCI Supercluster」の価格設定は、Nvidia H100 GPUベースのサービスと同等のGPU1時間あたり10ドルに据え置かれた。この戦略は、高性能ながら高コストというAIスーパーコンピューターの一般的な課題に対し、コスト効率を追求したオラクルの意図を反映している。一般的なクラウドサービスでは、性能向上に伴う価格上昇が避けられない中で、この価格維持は市場への強いアピールである。
オラクルは従来から、性能とコスト効率の両立を企業向けクラウドサービスの差別化要素として掲げてきた。今回のスーパークラスターでは、最大65,536個のGPUスケールや先進的な通信技術を採用しながらも、コストを抑えることで競合との差別化を図っている。この価格設定は、スタートアップ企業から大企業まで、幅広い利用者層にAIスーパーコンピューターを手の届くものとすることを意図している可能性が高い。
価格戦略は顧客層の拡大だけでなく、オラクルのクラウド市場における地位強化を目的としていると考えられる。企業のAI活用ニーズが急増する中で、こうした取り組みは、他社との差別化を図る鍵となるだろう。競合であるAWSやGoogle Cloudが同様の動きを見せる中、オラクルの一貫した価格政策がどのような市場変化をもたらすかが注目される。
次世代GPU「Nvidia Blackwell」による未来の展望
オラクルは、次世代GPU「Nvidia Blackwell」を最大131,072個搭載した新たなスーパークラスターの構築計画を発表している。このスーパークラスターは2025年上半期に導入予定であり、現在のOCI Superclusterを凌駕する性能を備える見通しである。
次世代GPUは、AIモデルのさらなる高度化や新たな用途の開拓を可能にする技術的進化を提供するだろう。特に、AIの推論だけでなく、複雑なトレーニング工程やリアルタイム処理においても、従来の性能限界を超える可能性が高い。オラクルが新技術の導入をいち早く計画していることは、AIスーパーコンピューティング市場における同社のリーダーシップを強調するものである。
この計画の背景には、生成型AIの需要急増や次世代アルゴリズムの要件を満たすための競争力強化があると推測される。オラクルの公式発表によれば、次世代スーパークラスターは、クラウドコンピューティングにおけるAI利用のハードルをさらに下げる役割を果たすとされる。この技術的な一歩が、AI導入を加速させる鍵となるだろう。