Meta Platformsは、AI業務をより良く支援するためのデータセンタープロジェクトの新たな詳細を公表した。その中には、自社で開発が進められているカスタムチップ「ファミリー」も含まれる。

参考:MTIA v1: Meta’s first-generation AI inference accelerator

コンテンツ提供の効率向上を目指すMTIAチップ

出典:Meta

FacebookやInstagramの所有者である同社は、ブログ投稿で、2020年に初代チップをMeta Training and Inference Accelerator (MTIA)プログラムの一環として設計したと述べた。その目的は、ニュースフィードの広告や他のコンテンツを提供するために使用する推奨モデルの効率を向上させることだった。

同社は最初の自社製AIチップを広範に展開する計画はなく、すでに後継機の開発を進めていると報じていた。初のMTIAチップは、AIのプロセスである「推論」に完全に焦点を当てていた。これは、大量のデータで訓練されたアルゴリズムが、次のユーザーフィードの投稿としてダンスビデオや猫のミームを表示するかどうかを判断するプロセスである。

MetaのソフトウェアエンジニアであるJoel Coburn氏は、新しいチップについてのプレゼンテーションで、Metaは最初にグラフィックス処理ユニット(GPU)を推論タスクに使用したが、推論作業には適していなかったと述べた。

Coburn氏は、「実際のモデルに対する効率が低く、ソフトウェア最適化が大幅に進んでいるにもかかわらず、実際に展開するのは困難で高価である。これがMTIAが必要である理由だ」と語った。

大規模AIインフラ更新プロジェクトが推進

Metaは、製品チームがAI機能を構築するための需要を支えるハードウェアとソフトウェアが不足していると経営陣が認識した後、過去1年間でAIインフラの大規模な更新プロジェクトを進めてきた。

その結果、同社は大規模な自社製推論チップの展開計画を取りやめ、訓練と推論を行うことができるより野心的なチップの開発を開始した。Metaのブログ投稿は、初のMTIAチップが高複雑度のAIモデルでつまずいたことを認めつつ、低複雑度および中複雑度のモデルについては、競合チップよりも効率的に処理したと述べている。

MTIAチップは、市場をリードするNvidia Corpなどのサプライヤーのチップが消費する電力と比較して、25ワットの電力しか使用せず、オープンソースのチップアーキテクチャであるRISC-Vを使用していたと、Metaは述べた。

またMetaは、より現代的なAI指向のネットワーキングと冷却システムを中心にデータセンターを再設計する計画についての最新情報を提供し、今年中に最初の施設の建設を開始すると述べた。新しいデザインは、現在のデータセンターよりも31%安く、2倍速く建設することができるとしている。

Metaの自社製AIチップ開発:変革的挑戦とAIエコシステムへの影響

Metaの新たなAI訓練と推論チップの開発は、同社が自社のAIエコシステムを大規模に強化する一環であると解釈できる。同社はこれまで市場からのGPU等を利用してきたが、それが必ずしも推論作業に最適でないことを認識している。これらの新しいチップは、ニュースフィード内のコンテンツ配信を最適化し、よりパーソナライズされたユーザーエクスペリエンスを提供するための重要な手段となる。

MTIAチップの第一世代は、AI推論プロセスに特化して設計され、同社はこれを「学習の機会」と見なしている。これは、自社製チップの挑戦と限界を理解し、これを次世代のチップ開発に反映させるという意欲的な姿勢を示している。結果として、更なる効率性とパフォーマンスの向上が期待される。

しかし、この取り組みは挑戦も伴う。AIチップの設計と製造は、高度な技術的専門知識を必要とし、大規模な投資と時間を必要とする。また、市場ではNvidiaなどの既存のチップメーカーと競合することになる。さらに、初代MTIAチップが高複雑度AIモデルで苦戦していたことは、開発途中での挑戦と課題を浮き彫りにしている。

MetaのAIインフラ更新プロジェクトは、同社がAI技術を中心とした将来に向けて大規模な投資を行っていることを示している。これは、同社が長期的な戦略を持ち、AIの進化とその可能性を理解していることを示している。その成果が、ユーザー体験とビジネスのパフォーマンスにどのように反映されるか、今後の動向が注目される。

Reinforz Insight
ニュースレター登録フォーム

最先端のビジネス情報をお届け
詳しくはこちら

プライバシーポリシーに同意のうえ