SK hynixは、世界初の12層(12-Hi)HBM4メモリモジュールのサンプルを顧客に提供開始した。最大36GBの容量と2TB/秒の帯域幅を誇り、前世代HBM3Eと比較して60%の性能向上を実現。主な顧客はNVIDIAで、次世代Rubin AI GPUに採用される見込みだ。
このHBM4は、Advanced MR-MUFプロセスを採用し、放熱性能と安定性を向上。2024年後半には量産開始を予定しており、AI向けメモリ市場での競争力強化を狙う。SK hynixは、AIメモリの技術革新を加速し、HBM市場でのリーダーシップを維持する構えだ。
SK hynixの12層HBM4がAIメモリ市場に与える影響

SK hynixは、世界初となる12層(12-Hi)HBM4メモリモジュールの提供を開始した。最大36GBの容量と2TB/秒の帯域幅を誇り、HBM3Eと比較して60%の性能向上を実現。これにより、AIアクセラレーションの分野において大きな変革がもたらされることは確実視される。
NVIDIAの次世代Rubin AI GPU向けに採用される見込みであり、特に大規模AIモデルの推論および学習処理の高速化が期待される。従来のHBM3Eでも高いデータ処理能力を誇っていたが、HBM4はその限界をさらに押し広げ、演算負荷の高い生成AIやHPC(高性能計算)用途での活用が想定される。
また、HBM4はAdvanced MR-MUFプロセスを採用しており、チップの反りを防ぎながら放熱性能を向上させている。これは、HBMの高密度化による発熱問題への対策として重要であり、長時間の高負荷演算時でも安定したパフォーマンスを維持する要因となる。これらの技術革新により、AIメモリ市場におけるHBM4の需要は急速に拡大すると見られている。
NVIDIA Rubin AI GPUとHBM4の最適な組み合わせ
NVIDIAは、次世代AI向けのGPUアーキテクチャ「Rubin AI GPU」を準備しており、その主要なメモリとしてSK hynixの12層HBM4が採用される可能性が高い。Rubin GPUは、現行のHopper(H100)やBlackwell(B100)を超える性能を目指しており、大規模AIワークロードへの最適化が図られる。
HBM4の採用により、従来のHBM3Eを超えるデータ転送速度が確保される。2TB/秒の帯域幅は、膨大なパラメータを扱うLLM(大規模言語モデル)や、高精細映像処理、分子動力学シミュレーションなどの計算負荷の高い用途において圧倒的なアドバンテージとなる。
また、HBM4の構造上、より多くのデータをキャッシュする能力が向上することで、AI処理におけるボトルネックが解消されることが期待される。これにより、学習時間の短縮や消費電力の最適化が進み、より効率的なAIトレーニング環境が実現される可能性が高い。Rubin GPUの登場により、HBM4が標準メモリとして採用される流れが加速し、今後のAIアーキテクチャ設計に大きな影響を与えることは間違いない。
AIメモリ競争の行方とSK hynixの優位性
AIの計算能力向上に伴い、HBM市場では熾烈な競争が繰り広げられている。SamsungやMicronといった大手半導体メーカーもHBMの開発を進める中で、SK hynixは業界をリードする立場を維持し続けている。
SK hynixは、2022年に業界初のHBM3を量産し、2024年には8層および12層のHBM3Eを市場投入するなど、技術革新を加速させている。特に、今回のHBM4では先進的な製造プロセスを導入し、チップの安定性と性能向上を両立させることに成功している。この技術力の差は、AI分野におけるシェア拡大に直結する要素となる。
また、HBM4の市場投入を前倒ししたことは、NVIDIAをはじめとする主要顧客との関係強化に寄与すると考えられる。今後、AIインフラの進化とともにHBM4の需要は増大することが予想され、SK hynixは量産体制を整えることで競争優位性を確立する構えだ。こうした戦略の成否が、今後のHBM市場全体の勢力図を左右する可能性が高い。
Source:TweakTown