マイクロソフトの研究者は、Apple M2などの一般的なCPU上で動作可能な高効率AIモデル「BitNet b1.58 2B4T」を発表した。MITライセンス下で公開されたこの1ビットモデルは、重みをわずか3値に量子化し、極めて少ないメモリで高速に処理を行う設計となっている。

総計2億パラメータを持ち、4兆トークンで訓練されたBitNetは、GSM8KやPIQAといったベンチマークにおいて、MetaやGoogleなどの同規模モデルを上回る性能を示した。さらに、従来モデルの2倍に達する処理速度と、GPUを必要としない省資源設計により、次世代の軽量AIモデルとして注目を集めている。

もっとも、独自フレームワーク「bitnet.cpp」の限定的対応により、汎用性には依然として課題が残る。

軽量AIモデルの構造と性能比較に見るBitNetの特徴

BitNet b1.58 2B4Tは、重みを「-1、0、1」の3値に限定した量子化方式により、従来のフルプレシジョンモデルとは異なる効率的な計算構造を有している。2億のパラメータで構成され、4兆トークンという大規模データセットで訓練された点も注目に値する。

パフォーマンス面では、MetaのLlama 3.2 1BやGoogleのGemma 3 1B、AlibabaのQwen 2.5 1.5Bといった同等クラスのモデルを、GSM8KおよびPIQAといった汎用的ベンチマークで上回る結果が報告されている。

処理速度の面でもBitNetは他を凌駕する。特定のケースでは、同等パラメータ数を持つ他モデルと比して2倍の処理速度を記録しており、それでいて消費メモリは極小に抑えられている。これは、従来GPUが前提とされてきたAIモデル運用の常識を覆す可能性を示唆している。

軽量モデルの代表格とされる構造を持ちながら、同時に高い精度と速度を実現している点で、BitNetはハードウェア制約のある領域における有力な選択肢となり得る。

bitnet.cppの依存性と互換性の限界が与える実装上の課題

BitNet b1.58 2B4Tの実行には、マイクロソフトが独自に開発したフレームワーク「bitnet.cpp」の利用が前提条件となる。しかしながら、このフレームワークは現時点で特定のCPU環境に最適化されており、GPUを中心とした既存のAI開発インフラとの互換性が確保されていない。

多くのエンタープライズ環境がGPUを前提としている現状を考えれば、この点は実装障壁として機能する。bitnet.cppの制約は、BitNetの商用展開や研究開発への即時導入を妨げる要素である。特にクロスプラットフォーム対応の欠如は、実行基盤が分散する現代のクラウド環境においては大きなネックとなる可能性がある。

BitNetの理念が「高効率×低リソース」である以上、今後は幅広いハードウェア対応と運用環境の自由度を高める取り組みが不可欠となろう。モデルの性能だけでなく、運用面での実装可能性がその真価を問われる段階にある。

Source:TechCrunch