中国のAI企業DeepSeekがMITライセンスで無料公開した大規模言語モデル「DeepSeek-V3-0324」は、M3 Ultra搭載のMac Studio上で20トークン/秒の生成速度を実現。これにより従来クラウド依存だったLLMのローカル実行が現実味を帯び、OpenAIを含む西側のAI巨頭にとって重大な脅威となりつつある。

Mixture-of-Experts構造を採用し、4ビット量子化により352GBまで軽量化された同モデルは、NVIDIA GPUを要する従来技術と比べて圧倒的に低消費電力かつ高効率。商用無料かつオープンソースという戦略も、資金に乏しい開発者層への強力な訴求力となっている。

中国勢の技術的台頭により、AIを誰が所有し誰が使えるのかという構造的課題が根底から揺さぶられ始めた。DeepSeekの静かなリリースは、かつてない地殻変動の始まりを告げている。

Mac Studio上で20トークン/秒を実現した技術的要因とその異質な開発姿勢

DeepSeek-V3-0324は、Mixture-of-Experts(MoE)構造を採用し、6850億パラメータのうち約370億パラメータのみを動的に活性化させる設計で効率性を大幅に向上させた。加えて、Multi-Head Latent Attention(MLA)により長文コンテキストの保持能力を高め、Multi-Token Prediction(MTP)によってトークン生成速度を約80%加速する。これらにより、Mac Studio(M3 Ultra/512GBメモリ)上でも秒間20トークンの処理が可能となったとされる。

さらに注目すべきは、4ビット量子化によりモデルサイズを641GBから352GBに圧縮し、これが消費電力200W未満という家庭用電源レベルでの高性能AI実行を可能にした点にある。従来、同等の処理は数キロワットを要するデータセンター級GPUでなければ実現不可能とされていた。加えて、このモデルには論文も公式ブログもなく、READMEすら存在しない。DeepSeekの情報公開姿勢は、華やかなプレゼンテーションとメディア戦略を駆使する西側企業とは明らかに一線を画す。

技術水準だけでなく、その開発文化の非中央集権性が、AIに対する価値観の転換を静かに示唆している点は看過できない。

クローズドモデルの支配構造に揺さぶりをかける中国AIの戦略的展開

DeepSeekのモデルは、MITライセンスに基づき商用利用を含め完全無料での公開がなされている。この方針は、OpenAIのようなAPI課金モデルを取る西側企業とは対照的であり、世界中の研究者・開発者が先端技術にアクセスできる新たな技術基盤を形成している。Redditなど一部コミュニティでは、その会話スタイルが従来より「冷たくなった」「人間味が薄れた」と評されているものの、これは技術精度重視の戦略的転換と捉えるべきである。

また、この動きは中国国内の構造的事情とも深く関係している。NVIDIAの先進GPUへのアクセス制限という外的要因の下、DeepSeekは限られたリソースの中で演算効率とスケーラビリティを追求した。その結果が、クラウドを必要とせず家庭用マシンで実行可能な高性能LLMというかたちで結実している。加えて、BaiduのERNIE 4.5のオープンソース化予定、AlibabaやTencentによる特化型モデルの公開など、中国全体での一貫した技術共有の潮流も見逃せない。

この動きは、AndroidがクローズドなiOSを駆逐していった構図とも重なる。誰が最強のAIを作るかではなく、誰がそれを開放し、多くの人に使わせるかという新しい競争軸が明確になりつつある。

Source:VentureBeat