Stability AIは、Radeon GPUおよびRyzen AI APU向けに最適化されたStable Diffusionモデルを公開し、最大3.3倍の処理速度を実現した。これにより、クラウド非依存のローカルAI生成環境がより現実的な選択肢となり、特にAmuse 3.0との連携により画像・動画生成、AIフィルターなど多彩な機能が展開される。AMDは過去1年間にわたりOSVやOEM、ISVと連携し、ドライバやモデルの最適化に取り組んできた。
AMD内部ベンチマークによれば、SD3.5 Largeでは3.3倍、SDXL Turboでは1.5倍の高速化を達成しており、これらのモデルはHugging Faceにて配布される。ハードウェア面では、AIアクセラレータを強化したRDNA 4やXDNA NPUを内蔵するStrix Haloが推奨されており、高性能なローカルAI運用が現実のものとなりつつある。
Radeon最適化モデルがもたらす最大3.3倍の性能向上

Stability AIが発表した新たなStable Diffusionモデルは、AMDのRadeon GPUおよびRyzen AI APUに最適化され、最大3.3倍の高速化を実現した。ベンチマークでは「SD3.5 Large」が3.3倍、「SD3.5 Large Turbo」が2.1倍、「SDXL Turbo」が1.5倍と、従来比で大幅な改善が示されている。
これらの性能向上は、TensorStack AIとAMDが共同開発したAmuseプラットフォームの最新版「Amuse 3.0」との統合により、ローカルでの画像生成や動画生成処理に直結している。Amuse 3.0は、ビデオ・ディフュージョンやテキスト画像変換など多機能を備え、ONNX形式のAIモデルを支援する。
これらの最適化モデルは、「_amdgpu」という接尾辞が付けられ、Hugging Face上から入手可能である。ただし、利用にあたってはAdrenalin 24.30.31.05または25.4.1のドライバが必須とされる点に留意すべきだ。
特定のモデルでは高性能なハードウェアを要求するため、ユーザー環境によって導入効果には差異が生じうる。安定した処理環境と高度なGPU資源を持つ構成において、初めて本来の性能が引き出されると考えられる。
ローカルAI環境の拡充に向けたAMDの戦略的取り組み
今回の最適化モデルの背景には、AMDによる継続的なソフトウェア・ハードウェア統合戦略がある。過去1年間、AMDは複数のOSV、OEM、ISVとの提携を通じて、AIアプリケーションに必要な基盤整備を進めてきた。
これは単なるドライバ改善にとどまらず、コンパイラの効率化やAIモデル自体のローカル処理に適した構造設計にも及んでおり、結果として、オンデバイスで動作する小型高効率なAIモデルの実行が現実のものとなった。
また、AMDの次世代GPUアーキテクチャ「RDNA 4」では第2世代AIアクセラレータを搭載し、FP16で最大4倍、INT8で最大8倍のスパース演算性能を実現するとされる。Ryzen AI APUではXDNA NPUとRadeon iGPUの組み合わせにより、Strix Haloのような構成が推奨される。
こうした構造により、ユーザーはネット接続に依存せずに生成AIを扱える環境を得る。クラウド依存型のAI利用とは異なる新たな実行モデルが、今後さらに普及していく契機となる可能性は否定できない。
Source:Tom’s Hardware