米OpenAIのCEOサム・アルトマンは、最新AIモデル「GPT-4.5」の段階的展開について、深刻なGPU不足が原因であると明かした。Xへの投稿で、GPT-4.5は「巨大」で「高コスト」と評し、追加で数万台規模のGPUが必要になるとの見通しを示した。

同モデルはまずChatGPT Pro向けに提供が開始され、翌週にはPlusユーザーにも拡大される計画だが、この分割提供もGPU調達難による苦肉の策と考えられる。加えて、GPT-4.5の価格は入力100万トークンにつき75ドル、出力は150ドルに設定され、GPT-4o比で入力30倍・出力15倍という異例の水準に達している。

アルトマンはこれまでにも計算資源の逼迫がサービス拡大を阻んでいると繰り返し指摘しており、今後は自社AIチップ開発や大規模データセンター整備を通じた抜本的なインフラ強化を模索する構えである。


OpenAIが直面するGPU不足の深層 GPT-4.5公開を阻む供給網の課題

サム・アルトマンCEOが明かした「数万台規模のGPU不足」は、単なる一時的な調達難にとどまらない。OpenAIは最新モデルGPT-4.5の段階的展開を余儀なくされたが、これはモデル規模の肥大化による計算負荷増大と、AI需要の爆発的な加速が引き起こした構造的問題に起因する。

特に、NVIDIA製の高性能GPUはAIモデルの学習・推論に不可欠であり、需要が供給をはるかに上回る状況が続いている。OpenAIはデータセンター拡張計画を進める一方、クラウド提供者からのリソース調達にも依存しており、こうした二重の調達ルートでも需要には追いつかない構造が浮き彫りになった。

OpenAIが自社設計のAIチップ開発に踏み切る方針も、この慢性的な計算資源不足への対応策の一環と考えられる。だが、独自チップの実用化には数年単位の時間が必要と見られ、当面は外部GPU依存からの脱却は困難である。

GPT-4.5が示す超巨大AIモデルのコスト構造 価格設定が映す運用の現実

GPT-4.5は入力100万トークンあたり75ドル、出力100万トークンあたり150ドルという異例の価格が設定された。これはOpenAIの現行主力モデルであるGPT-4oと比べて、入力で30倍、出力で15倍のコストに相当し、AIモデルの巨大化と運用負荷増大が価格に直結していることを物語る。

特に、GPT-4.5のトークン単価には、膨大なパラメータ規模に伴う学習・推論時の演算負荷、データセンターの電力消費、GPU占有率の高さといった要素が反映されているとみられる。加えて、限定的なGPU資源の奪い合いがコストを押し上げる要因となっている。

AIモデルの進化が不可逆的にコスト高を招く流れは避けられず、今後も性能向上と価格上昇が並行する可能性は否定できない。OpenAIにとっては、革新と持続可能な運用の両立という難題に直面していると言える。

OpenAIの事業戦略に映るインフラ依存リスク AI市場競争と自社チップ構想の行方

サム・アルトマンCEOが言及した自社AIチップ開発計画は、OpenAIの長期戦略における重要な転換点となる。これまでNVIDIA製GPUへの依存度が極めて高かったが、生成AI市場の競争激化に伴い、外部供給への依存を抜本的に見直す動きと位置づけられる。

OpenAIは、次世代モデルの安定運用には自社最適化チップと大規模データセンター群の構築が不可欠と認識しており、今後数年をかけて独自の計算基盤を築く方針である。ただし、半導体設計から製造、運用に至るまでの技術蓄積やパートナー選定など、解決すべき課題は多岐にわたる。

自社チップ構想が実現すれば、計算資源の安定確保に加え、コスト競争力や技術的独自性の確保にも直結する可能性がある。OpenAIの事業基盤強化とAI覇権争いの行方は、このインフラ戦略の成否に大きく左右されるだろう。



Source:TechCrunch