AMDの最新APU「Ryzen AI MAX+ 395(Strix Halo)」が、DeepSeek R1 AIベンチマークにおいてNVIDIAのRTX 5080を3倍以上の性能で上回ったことが明らかになった。
このAPUは、Zen 5アーキテクチャと50TOPSのXDNA 2 NPUを搭載し、最大128GBの統合メモリを提供。特にローカル環境でのAIモデル実行に優れ、LLMやビジョンモデルの処理速度で競合製品を圧倒する結果を示した。
Ryzen AI MAX+ 395のAI性能が示す圧倒的なパワー

AMDのRyzen AI MAX+ 395「Strix Halo」は、DeepSeek R1 AIベンチマークにおいてNVIDIAのRTX 5080を3倍以上の性能で上回った。このプロセッサは、Zen 5 CPUコアと最大50TOPSのXDNA 2 NPUを組み合わせることで、ローカル環境でのAI処理を劇的に高速化する。
特に、統合メモリが最大128GBに達する点が特徴であり、競合するディスクリートGPUのVRAM制限を克服している。AIワークロードにおいて、より大規模なLLM(大規模言語モデル)やビジョンモデルを実行できるため、AI推論用途での柔軟性が増している。加えて、特定のモデルでは、RTX 5080の3倍以上の速度を発揮し、ビジョン処理やトークン生成速度において顕著な差を見せている。
ただし、すべてのタスクでこの差が維持されるわけではなく、RTX 5080やRTX 5090は、VRAMの制約内で動作する場合には依然として優れたパフォーマンスを発揮する。AMDの戦略は、ハイエンドな統合型AI処理ユニットの可能性を示しつつも、用途によってはディスクリートGPUの存在意義を崩さないものとなっている。
128GB統合メモリが生む新たなAI活用の可能性
Strix Haloが特に強みを発揮するのは、VRAM容量に依存する大規模モデルの処理だ。NVIDIAのRTX 5080が16GB、RTX 5090が32GBのVRAMを備えるのに対し、Ryzen AI MAX+ 395は最大128GBの統合メモリを搭載し、そのうち最大96GBをVRAMとして割り当てられる。このメモリ容量の違いが、AI推論における大きな差を生んでいる。
たとえば、Google Gemma 3 27B Visionのような大規模モデルは、VRAMが16GBに制限される環境では適切に動作しない。しかし、Strix Haloはこのようなモデルでも安定した動作を実現できるため、より高度なAI処理が可能になる。加えて、IBM Granite Vision 3.2 3bでは最大7倍、Google Gemma 3 12bでは最大6倍の速度向上が報告されており、特にビジョン系AIの処理能力が際立っている。
一方で、ディスクリートGPUは独立した強力なグラフィックス処理能力を持つため、AI用途以外の一般的なゲームや3Dレンダリングなどでは依然として有利だ。だが、AIをローカル環境で活用するユーザーにとっては、Strix Haloの大容量メモリと統合型アーキテクチャは新たな可能性を生み出す選択肢となる。
AI処理の主流は統合型へ向かうのか
AMDのRyzen AI MAX+ 395は、統合型プロセッサがAI処理の新たな主流となる可能性を示唆する製品だ。現在、多くの高性能AI処理はディスクリートGPUに依存しているが、今回のベンチマーク結果は、特定の条件下では統合型APUがGPUを凌駕することを示している。
特に、省電力で高性能なAI処理が可能な点は大きな魅力だ。RTX 5080の消費電力が360W、RTX 5090が575Wであるのに対し、Strix Haloは統合型でありながらAI処理において競争力のあるパフォーマンスを発揮する。電力効率と性能を両立させた設計は、バッテリー駆動が求められるノートPCや省電力志向のデバイスに適している。
ただし、統合型がすべての用途において最適解とは限らない。特に、AIモデルのサイズが16GB以下に収まる場合は、ディスクリートGPUのほうがパフォーマンス面で優位になるケースもある。今後、AMDがこの技術をどのように発展させ、ディスクリートGPU市場とのバランスをどのように取るのかが注目される。
Source:Wccftech