Googleが公開した最新AIモデル「Gemini 2.5 Pro」の技術報告書に、安全性に関する具体的な情報がほとんど含まれていないとして、複数の専門家が問題を提起している。報告書には、重大なリスク評価や同社が以前表明した「Frontier Safety Framework」への言及すらなく、Gemini Flashに関する文書も依然未公開のままである。特にAI政策戦略研究所のワイルデフォード氏やSecure AI Projectのウッドサイド氏らは、Googleが約束していた透明性を実現していないと警鐘を鳴らす。
他の大手AI研究機関も同様の簡素な報告傾向を見せる中、Googleの対応が業界全体の安全性軽視の流れを助長しているとの懸念が高まる。企業間の競争が激化するなかで、公開前の十分な評価やリスク説明が省略されつつあり、AIの社会実装における信頼基盤が揺らぎつつあるとの指摘も聞かれる。
Gemini 2.5 Pro報告書における構造的省略とFSFの不在

Googleが4月に公開したGemini 2.5 Proの技術報告書は、同社が2023年に打ち出した「Frontier Safety Framework(FSF)」の概念に一切触れず、AI業界における透明性原則の逸脱を印象づけた。FSFは、高度なAIモデルに潜在する「深刻な被害」を防ぐための枠組みであり、その存在自体がGoogleによる安全性確保の象徴的な表明であった。
しかし今回の報告書では、当該フレームワークに基づいた評価結果や検証のプロセスは示されておらず、モデルが内包するリスクの可視化は不可能に近いとされる。AI政策戦略研究所のピーター・ワイルデフォード氏は、「情報量が最小限で、公開のタイミングも数週間遅れた。これでは、同社の公約に基づく外部評価の道が完全に閉ざされている」と厳しく批判している。
企業がAIに関する技術報告を通じて透明性と安全性のバランスを図ろうとする動きは、本来であれば市場と社会の信頼を得るための基本姿勢である。しかしGoogleは、Gemini 2.5 Proがすでに一般公開された後でのみ評価書を提出しており、その報告書に「危険な能力」に関する十分な検証結果が欠落していることは、極めて憂慮すべき構造的問題を孕んでいる。加えて、2024年6月以降、「危険な能力」に関する試験結果は一度も公表されていないという事実も、同社の安全評価体制に対する信頼性をさらに損なう要因となっている。
更新頻度と説明責任の欠如が招く信頼性の低下
Gemini 2.5 Proの技術報告書は、情報の簡素化だけでなく、報告対象の選別や公開時期にも課題を抱えている。Secure AI Projectのトーマス・ウッドサイド氏は、「この報告書の存在そのものは前向きだが、危険性を含む評価が同時に行われない限り、企業としての責任は果たされない」と語っている。
特に指摘されるのは、Googleが昨年発表したFlashモデルに関する報告書がいまだに公開されていない点である。広報担当者は「近日中に公開予定」と述べているが、既に一般向けに投入されている製品の安全性に関する記述が欠落した状態が続くことは、市場や規制当局との信頼関係を損ねる危険を伴う。
Googleは2年前、米政府に対して「重要な」AIモデルに関する安全報告書を原則として公開する旨を表明し、さらに他国にも同様のコミットメントを示してきた。しかし、今回のような不透明な報告の実態は、AI安全性に関する「底辺への競争」を助長するとの批判を招いている。
実際、OpenAIはGPT-4.1シリーズの報告書を一切公表しておらず、MetaもLlama 4の評価書において同様に簡素な内容に留まっている。こうした状況は、企業間の競争が安全性の軽視と報告の簡略化をもたらす要因となっており、AI開発の健全性を脅かす環境が加速しているといえる。報告書のタイムリーな更新と、内容の具体性を伴った説明責任の履行がなければ、Googleの取り組みもまた形骸化した規範として終わる可能性がある。
Source:TechCrunch