Databricksは、ラベルなしのデータで大規模言語モデル(LLM)を企業用途に最適化する新手法「TAO(Test-time Adaptive Optimization)」を発表した。強化学習と独自の報酬モデルを用いることで、従来のファインチューニングを上回る成果を、ラベルなしで実現する。
この技術は、金融や医療などのドメイン特化型AIを、少数の入力データのみで構築・改良できる点が特長である。実際、複数ベンチマークにおいて、TAOによってチューニングされた小型モデルが、GPT-4oと同等の性能を示すなど、既存手法に匹敵する精度を記録した。
TAOはトレーニング時のみ追加計算を必要とし、推論コストを抑えたまま高性能を維持できる。ラベル作成に要する時間とコストを削減することで、AIの市場投入までの期間を大幅に短縮し、企業の競争優位性に資する可能性がある。
ラベルなき最適化を実現するTAOの技術構造と性能

Databricksが発表した「TAO(Test-time Adaptive Optimization)」は、ラベル付きデータを使用せずに大規模言語モデル(LLM)を企業用途に特化させる革新的手法である。従来の監視型ファインチューニングでは入力と出力の対応が必要だったが、TAOは入力データのみでモデルの精度を高める仕組みを採用している。具体的には、入力から複数の応答を生成し、それらをDatabricks独自の報酬モデル(DBRM)によって評価し、強化学習によって高評価の応答を導くパラメータ最適化を行う。また、継続的にユーザーとの対話からデータを蓄積する自己強化ループにより、モデルは運用中も進化し続ける。
FinanceBenchにおいてはLlama 3.1 8Bモデルで24.7ポイント、70Bモデルで13.4ポイントの性能向上を達成し、BIRD-SQLではDatabricksのSQL方言に特化した調整により19.1ポイントおよび8.7ポイントの精度向上を示した。特筆すべきは、TAOによってチューニングされたLlama 3.3 70Bモデルが、通常より10倍から20倍のコストがかかるGPT-4oと同等の性能を実現した点である。ラベルコストの削減に加え、性能面でも業界最高水準を達成している事実は、TAOの技術的優位性を裏付けるものである。
ラベリング不要がもたらす導入スピードと戦略的優位性
AI導入における最大の障壁の一つは、質の高いラベル付きデータの準備にかかる時間とコストである。DatabricksのTAOは、この工程を完全に排除し、企業が既存の非構造化データを活用するだけで専門AIの構築を可能にする。従来、法務や医療などの分野でラベルを付けるには専門知識が不可欠であり、組織横断的な調整と数か月単位の作業が必要だった。TAOはこの負荷を解消し、入力データのみでチューニングを開始できるため、導入スピードが飛躍的に向上する。
たとえば、金融業界では契約書解析システムを数週間で実装でき、医療分野では医師のクエリのみをもとに臨床意思決定支援システムの性能を向上させられる。推論時の追加計算が不要であるという設計上の特性は、運用コストに厳しい本番環境において重要な利点となる。AIが競争戦略の中核となる現在、TAOが示す「高性能かつ迅速な導入」は、意思決定のスピードと精度を同時に実現する新たな基準となり得る。ラベルに依存せず、短期間で実用レベルに到達できることは、今後のAI開発における常識を覆す可能性がある。
Source:VentureBeat