Samsung、SK hynix、Micronが、次世代高帯域幅メモリ「HBM4」と「HBM4e」をNvidia GTCにて一斉公開した。HBM3の限界を超える速度と容量を実現すべく、各社が16層構成や最大9.2Gbpsの動作速度、最大64GBスタックなどを掲げる。特にMicronは、HBM3e比で50%以上の性能向上を主張し、SK hynixは20層以上によるさらなる大容量化を視野に入れる。

これらの進化は、Nvidiaの次世代Rubin GPUシリーズの設計に直結しており、1TB以上のHBM4e搭載を可能にする技術的土台となる見込みだ。一方で、高コストの影響から、現時点では一般向けグラフィックカードへの応用は限定的である可能性が高い。

48GB超のHBM4スタックが示すAIメモリの進化速度

SK hynixは、3GBのチップを16層積層した48GBのHBM4スタックを披露し、動作速度は8Gbpsに達するという。またSamsungも16層構成のデモを行い、最終的には9.2Gbpsまで到達可能と主張。Micronも同様にHBM4構成を提示し、HBM3eに対して50%以上の性能向上を見込む。さらに、2026年に主流化すると見られるのは、12層構成による36GBスタックである。これらの発表は、AIトレーニングや推論用途におけるメモリ帯域と容量の増大が急務であることを裏付けている。

各社が示す数値は、過去のHBM3eと比較して大幅な性能改善を意味し、単なる世代交代にとどまらない技術的飛躍が見て取れる。特に動作速度の向上は、メモリ帯域を求めるAIチップとの親和性をさらに高める要素となる。一方で、層の増加による熱管理や歩留まりへの影響など、製造上の課題が残ることも事実である。技術的進展と実装可能性のバランスをどのように取るかが、HBM4世代の成否を左右する分岐点となるだろう。

HBM4eと次世代Rubin GPUが描く未来のAI処理基盤

Nvidiaが将来投入予定のAIトレーニング向けRubin GPUは、HBM4eの16スタック構成を採用し、1GPUあたり1TBという膨大なメモリ搭載を計画している。この構成は、4チップレットで構成され、帯域幅は驚異の4.6PB/sに達する見込み。さらに、NVL576システムでは合計365TBものメモリを搭載可能であるとされる。これは従来のAI処理システムとは桁違いの規模であり、膨大なパラメータを扱う生成AIモデルなどに不可欠な基盤となる。

このような構成が実現すれば、演算効率や学習スピードの向上だけでなく、大規模モデルの同時実行や推論精度の向上にも寄与すると考えられる。ただし、こうしたスペックがもたらす恩恵は主にエンタープライズ用途に限られ、個人向けの応用には距離がある。消費電力や発熱量、価格面の課題が個人用途への展開を制限する要因となり得る。高密度HBMメモリの進化は確実に次世代AIの柱となるが、全ての領域に恩恵が及ぶには時間がかかる可能性がある。

高性能の代償と今後のHBMの普及可能性

高密度かつ高帯域なHBM4およびHBM4eは、AI処理性能の向上に欠かせないが、その恩恵が一般の環境に波及するには時間を要する。VideoCardzの見解によれば、現時点ではコンシューマー向けグラフィックスカードへのHBM採用は現実的でないとの指摘がある。理由は明快で、製造コストの高さと歩留まりの問題がボトルネックとなっている。高性能HBMの恩恵は、当面はデータセンターや特定のAI専用機器に限定される可能性が高い。

一般用途では、従来のGDDRメモリでも一定の性能が確保されており、コストとバランスを重視する設計ではHBMは過剰スペックとなりかねない。ただし、今後の製造技術の進化や歩留まり改善により、HBMのコスト構造が見直される可能性は否定できない。特にゲームや映像処理、シミュレーションといった帯域重視の用途では、HBMの恩恵が現実味を帯びる場面もあり得る。技術の成熟と市場のニーズ次第では、HBMがより広い層に浸透していく展開も視野に入る。

Source:TechSpot