AppleのMac Studio(M3 Ultra搭載)が、DeepSeek R1の6710億パラメータモデルを単一マシンのユニファイドメモリ内で完全に動作させたことが明らかとなった。通常は高帯域のVRAMと複数のGPUを要するモデルを、448GBの割当メモリと200W未満の消費電力で実行。
これはAI処理における電力効率と設備コストの常識を覆す試みである。NvidiaやAMDのGPUに依存しない構成が成立したことで、AIワークステーション市場の競争構図に新たな波紋が広がる可能性がある。
単一マシンで6710億パラメータを処理 M3 Ultraの構成と運用手法

AppleのMac Studioに搭載されたM3 Ultraは、32コアCPUと80コアGPUを備えた最新チップであり、最大512GBのユニファイドメモリに対応している。YouTuber「Dave2D」による検証では、DeepSeek R1の4ビット量子化モデルをこのユニファイドメモリ上に完全に展開し、AI処理を単一マシン内で実現した。
通常、6710億パラメータ規模のLLMは404GB以上のメモリと複数GPUを必要とし、VRAM帯域の制約もある。これに対し、Mac StudioはMacOS標準のVRAM制限をターミナル操作で解除し、最大448GBをAI処理に割り当てることで、スムーズなモデル実行に成功している。
注目すべきは、消費電力が200W未満に抑えられていた点である。従来、同様のパフォーマンスを実現するには数枚の高性能GPUが必要であり、構成はサーバークラス、消費電力はキロワット単位となるのが常識だった。
Appleのユニファイドメモリアーキテクチャが、これまで分離されていたCPU・GPU間のメモリ管理を統一し、効率的なデータ転送とリソース共有を実現したことが、この電力効率の要因と考えられる。システム構成のシンプル化と処理能力の両立は、今後のAIワークステーション設計に一石を投じる。
GPU依存からの脱却がもたらす産業構造への影響
これまで大規模AIモデルの実行環境は、NvidiaやAMDのハイエンドGPUを中核とするマルチGPU構成が支配的であった。特にLLMの開発や推論では、大容量VRAMを持つ専用グラフィックスカードが不可欠とされ、それに伴う高価格化と消費電力の増大が業界全体のハードルとなっていた。
Mac Studio M3 Ultraが示した単一システムでのDeepSeek R1実行は、こうした前提に対し根本的な疑義を投げかける。高性能なGPUに依存せず、大規模AIモデルを処理できる環境が登場したことで、AI活用の裾野は広がる可能性がある。
とりわけ、電力リソースや設備投資に制約のある中小規模の研究機関や開発チームにとっては、エネルギー効率の高いMac Studioは選択肢の一つとなり得る。また、GPU市場で圧倒的シェアを誇るNvidiaにとっては、Appleのように独自アーキテクチャでAI処理を内製化する動きが拡大すれば、長期的な影響は避けられない。
もっとも、現時点では4ビット量子化モデルによる実行である点や、メモリ帯域の限界なども踏まえると、全てのAIワークロードに代替可能とは言い切れないが、転換期の兆候であることに疑いはない。
Source:TechRadar