OpenAIは、AIの安全性評価体制「Preparedness Framework」を約2年ぶりに改定し、競合他社が十分な保護措置を講じずに高リスクAIを公開した場合、自社の安全基準を調整する可能性があると表明した。これは、モデルの迅速な展開を求める業界圧力と、安全性軽視との批判の間で揺れる同社の姿勢を反映するものである。
同社はなお「より保護的なレベルの保護措置」を維持する方針を強調する一方で、自動評価への依存度を高め、製品開発のスピードアップを進めている。Financial Timesの報道によると、次期モデルではテスト期間が著しく短縮されており、安全性検証の質に関する懸念も生じている。
また、リスク分類の基準も更新され、「高い能力」と「重大な能力」という二重基準が導入された。これにより、能力の隠蔽や自己複製などの深刻なリスクを持つモデルへの規制が強化される可能性があるが、政策変更の背景には市場競争と開発ペースの加速という相反する要因が複雑に絡んでいる。
Preparedness Frameworkの更新と自動評価体制の強化

OpenAIは2023年以来初となる「Preparedness Framework」の見直しを実施し、AIモデルのリスク評価と保護措置の判断基準を刷新した。今回の更新では、高リスクのモデルについて「高い能力」と「重大な能力」の二段階で分類する手法を導入し、それぞれに応じた保護措置の義務付けを明記している。
また、モデルの評価工程では、自動テストによる検証体制の比重を拡大したことも公表された。OpenAIは人間による評価も継続しているとするが、今後は「より迅速なリリースペース」に対応するため、機械的な検証体制が中心になるとみられる。
これにより、従来よりも短期間でのモデル公開が可能となるが、一方で品質担保や安全性の確保について懸念の声もある。Financial Timesの報道によれば、次期モデルに対して社外テスターに与えられた評価期間は1週間未満であり、実際に公開されるバージョンではなく前段階のプロトタイプがテスト対象となっていたとの証言もある。こうした手法は、透明性や信頼性に関する議論を呼び起こしている。
評価体制の自動化によって効率は向上するものの、現時点ではリスクの把握が十分とは言い切れない。今後の実装では、テスト精度の担保と結果の公表方法について、明確なガイドラインが求められるだろう。
競合の動向を想定した「要件調整」の余地とOpenAIの戦略
OpenAIは、競合のAI研究機関が十分な安全対策を講じずに高リスクのシステムを市場投入した場合、自社の安全基準を調整する可能性があると明言した。これは、同社が火曜日に発表したブログ投稿内で明示された方針であり、「リスクの状況が実際に変化したことを厳密に確認する」とした上で、必要に応じて対応策を取る意向を示している。あくまで「より保護的なレベル」の維持を前提としつつも、競争環境を考慮した柔軟な姿勢をとっていることがうかがえる。
この方針は、急速に進展するAI開発競争において市場優位性を失わないための戦術とも受け取れる。現在、各社が次世代モデルのリリース時期を争う中で、厳格な安全審査が遅れや開発停滞を招くリスクがあるためである。
しかし、こうした「調整の可能性」は、安全性より商業性を優先する意思と見なされる危険も孕む。特に、元社員12名が提出した陳述書では、企業再編に伴う安全軽視の可能性が指摘されており、OpenAIの姿勢に対する監視は一段と厳しくなっている。
現状では「調整は慎重に行う」との表明があるものの、その実施基準や判断プロセスの具体性に欠ける点は否めない。透明性を確保するためには、今後のポリシー運用において、どのような条件下でどの程度の調整がなされるのかを明確に示す必要があると考えられる。
Source: TechCrunch