欧州警察機構Europolは、ChatGPTをはじめとするAI生成システムがオンライン詐欺やその他のサイバー犯罪に利用される可能性があると警告する報告書を発表した。

参考:ChatGPT – the impact of Large Language Models on Law Enforcement

EuropolのChatGPT犯罪利用に関する報告書

2022年11月末に公開されて以降、ChatGPTは急成長を遂げ、最初の2か月で1億人以上の利用者を獲得。これまでにない人間らしいテキスト生成能力で話題となっている。OpenAIのChatGPTのような大規模言語モデルは、ビジネスや個人利用に有益ですが、悪意ある者たちに悪用されることもあるとEuropolは指摘している。

報告書によれば、犯罪者は新技術を素早く悪用し、ChatGPTの公開後数週間で具体的な犯罪利用が現れたとのこと。Europolのイノベーションラボが主催するワークショップで、ChatGPTなどの大規模言語モデルの犯罪利用や捜査活動への応用が議論されていると発表した。

ChatGPTの弱点として、ChatGPTのモデレーションルールがプロンプトエンジニアリングと呼ばれる手法で回避されることが指摘されています。これは、AIモデルに特定の出力を得るための入力を提供する方法です。

最新技術を用いているChatGPTには、パッチが継続的に適用されてもまだ問題が残っていると指摘。例えば、AIにプロンプトを提供するように頼むことや、架空のキャラクターになりすますように頼むこと、コードで悪意ある回答を提供させることなどが可能になってしまうリスクを指摘している。

公表された犯罪利用の例

具体的な犯罪利用の例として、ChatGPTを利用した家宅侵入やテロリズム、サイバー犯罪、児童性的虐待などの犯罪分野のリサーチが劇的に速くなることが挙げられている。

Europolの報告書では、「ChatGPTが提供する情報はすべてインターネット上で無料で入手できますが、文脈に応じた質問をすることで具体的な手順を提供するモデルを利用することで、悪意ある者たちがさまざまな犯罪をより理解し、実行しやすくなります」と述べられている。

フィッシング攻撃の分野でも、従来は文法や言語のミスで容易に見破れた詐欺メールが、AI生成テキストによって現実的なものになり、検出が困難になっているという。

同様に、オンライン詐欺も、ChatGPTを使って偽のソーシャルメディアのエンゲージメントを作成することで、詐欺的なオファーが正当に見えるようになってしまう。これにより、「フィッシングやオンライン詐欺はより迅速で、よりリアルに、大規模に作成されるようになる」としている。

また、AIが特定の人物のスタイルや話し方を模倣する能力は、プロパガンダや憎悪表現、デマに関する悪用事例につながる。さらに、ChatGPTはプログラミング言語でコードを生成することもでき、IT開発の知識がほとんどない悪意ある者たちが自然言語をマルウェアに変換する能力が拡大される恐れがある。

ChatGPTの公開直後、セキュリティ企業Check Point Researchは、英語でコマンドを受け付けるリバースシェルを実行するフィッシングメールの作成から感染フロー全体を作成する方法を示した。

報告書では、「ChatGPTが悪意のあるコードや回答を提供しないようにする安全策は、モデルが自分が何をしているかを理解している場合にしか機能しない。プロンプトを個々のステップに分解すれば、これらの安全対策を回避することは容易だ」と指摘されている。

今後の展望

Europolは、ChatGPTの様なAIシステムがますます利用され洗練されることで、例えば非常に説得力のあるディープフェイクの生成など、引き起こされる課題が増加すると考えています。

また、暗号通貨取引所に大規模な言語モデルが出現し、セーフガードがなく、特に有害なデータで訓練される可能性もあります。これらのシステムに供給されるデータの種類と、どのように監視されるかが、今後の大きな課題となっています。

欧州議会ではAI法案についての立場を最終調整中で、基盤モデルに対する厳格な要件の導入が議論されている。これには、リスク管理、品質管理が含まれている。

今後、AI技術の進歩に伴い、法執行機関は犯罪者がAIを悪用する方法を把握し、対策を講じる必要がある。AI法案やその他の規制策を通じて、技術の利点を享受しながら、悪用リスクを最小限に抑えることが求められている。

Reinforz Insight
ニュースレター登録フォーム

最先端のビジネス情報をお届け
詳しくはこちら

プライバシーポリシーに同意のうえ