中国のAIスタートアップが開発したチャットボット「DeepSeek R1」が、セキュリティ上の深刻な欠陥を抱えていることが、Ciscoの研究チームのテストで明らかになった。研究者たちは、50の有害プロンプトを用いて試験を実施したが、DeepSeek R1は1つとしてブロックできず、100%の攻撃成功率を記録した。
Ciscoはペンシルベニア大学の研究者と協力し、AIモデルの安全性を検証。DeepSeek R1は、推論能力の高さと低コストな開発手法が評価されていたが、安全性テストでは壊滅的な結果となった。特に「アルゴリズム・ジェイルブレイキング」という手法を用いた試験では、他の主要AIと比較しても異常なまでの脆弱性を示した。Llama 3.1やGPT-4oなどの大手AIモデルも一定の脆弱性を抱えていたが、DeepSeek R1のように全てのプロンプトを通してしまうケースは極めて稀だという。
この結果を受け、DeepSeekの開発手法が安全性を犠牲にして効率を追求したものである可能性が指摘されている。加えて、訓練コストを巡る不透明な情報や、OpenAIによる「データ盗用」疑惑など、同社を取り巻く論争は今後さらに激化する可能性が高い。Ciscoのレポートは、AI開発においてコスト削減と安全性のバランスが重要であることを改めて示すものとなった。
DeepSeek R1の安全性試験が示した異例の脆弱性

Ciscoの研究チームが実施したテストにおいて、DeepSeek R1は有害プロンプトに対する完全な無防備さを露呈した。この試験では、「HarmBench」データセットを活用し、サイバー犯罪、誤情報の拡散、違法行為の助長など、計50の有害プロンプトが用意された。しかし、DeepSeek R1はこれらのプロンプトを1つも遮断できず、100%の攻撃成功率を記録した。
特に問題視されたのは、他の主要AIモデルと比較した際の異常な結果である。Llama 3.1-405Bは96%、GPT-4oは86%、Gemini 1.5 Proは64%、Claude 3.5 Sonnetは36%、O1 Previewは26%という攻撃成功率を示した。いずれのモデルも完全な防御には至らなかったものの、DeepSeek R1のようにすべてのプロンプトを無条件に通してしまうことはなかった。
この結果は、DeepSeek R1が従来のAIモデルが採用してきた安全対策を十分に実装していない可能性を示唆する。研究チームは、AIの安全性を強化するための「報酬モデリング」や「自己監視強化学習」の不足が影響していると指摘している。これにより、AIの応答が倫理的基準や法的規範を考慮しないまま生成される危険性が浮き彫りとなった。
低コスト開発の代償 安全性と効率のトレードオフ
DeepSeek R1は、比較的低コストで高性能な言語モデルを実現したことで注目を集めた。開発費用は約600万ドルとされており、OpenAIやMeta、Googleが数十億ドル規模の投資を行っているのに比べ、圧倒的なコスト効率を誇る。加えて、「チェーン・オブ・ソート(思考の連鎖)」と蒸留技術を組み合わせた手法により、一般的な大規模言語モデルを上回る推論能力を発揮するとされていた。
しかし、この低コスト設計が安全性の欠如を招いた可能性がある。Ciscoの研究では、「DeepSeekのコスト効率の高い訓練手法が、安全性メカニズムの構築を犠牲にしている可能性がある」と指摘されている。特に、強化学習によるリスク管理や、安全性フィルタリング機能の最適化が不十分であることが、今回の脆弱性を招いた要因と考えられる。
また、独立系調査会社「SemiAnalysis」は、DeepSeek R1の実際の訓練コストは13億ドルに上る可能性があると主張している。企業側が公表した600万ドルという数値と大きく乖離しており、開発コストの透明性にも疑問が生じている。低コストで高性能なAIモデルを開発することは重要だが、必要な安全策を講じなければ、リスクの高いシステムとなる可能性がある。
AI技術の透明性と倫理問題 DeepSeek R1をめぐる論争
DeepSeek R1の問題は単なる技術的な課題にとどまらず、AI技術の透明性や倫理問題にも波及している。特にOpenAIは、DeepSeekが自社のプロプライエタリ・モデルの出力を学習データとして不正に使用したと主張し、「データ盗用」の疑いで非難している。これが事実であれば、AI業界における知的財産権やデータ利用のガイドラインをめぐる議論が一層活発化する可能性がある。
さらに、アメリカの研究者グループは、DeepSeek R1の技術の中核部分をわずか30ドルで再現することに成功したと発表した。この報告が正しければ、AI技術の模倣や廉価な複製が容易であることを示唆し、AIの信頼性や独自性を損なう要因となるかもしれない。
AI技術は日々進化し続けているが、技術的な進歩と倫理的なガイドラインの整備は必ずしも一致していない。DeepSeek R1の事例は、安全性を軽視した開発がもたらすリスクを如実に示しており、今後のAI開発においては、透明性や倫理的基準の確立が求められることになるだろう。
Source:Interesting Engineering