ChatGPTやDallEに代表されるジェネレーティブAIを使って作成されたコンテンツは、詐欺やサイバー攻撃で使用され始めており、特にソーシャルエンジニアリングの分野で影響が出ている。
ジェネレーティブAIを駆使したサイバー攻撃が急増
セキュリティAIソリューションを提供するDarktraceが最近公表したデータによれば、ジェネレーティブAIを使用したソーシャルエンジニアリング攻撃は2023年1月から2月にかけて135%増加しているという。悪意あるユーザーは、ChatGPTやMidjourneyといったジェネレーティブAIを使用して、ソーシャルエンジニアリングをより高度化してしまっている格好だ。
詐欺を狙った悪意あるメッセージが増加する中で、一般ユーザーはその出所を見極めることがますます困難になっている。これまでは、英語や日本語などの他言語に翻訳された文章が稚拙であったことで、なりすまし・スパムだと判別できたケースもあったが、ChatGPTを利用することでこうした課題は解消してしまう。
ChatGPTを始めとするジェネレーティブAIの進化は凄まじく、画期的だと賞賛されているが、悪用へは早急に対処しなければならない。一般公開されているChatGPTは、こうした悪意ある利用を防ぐのが簡単ではない。
OpenAIや他のジェネレーティブAIプラットフォーム開発者は、悪用を防ぐための技術的なソリューションやポリシーを検討することが重要になる。例えば、AIの出力に対する透明性を提供する方法や、不正使用を検出するための監視ツールの開発を検討すべきだろう。
ジェネレーティブAIの浸透に備えユーザーも対策を
対策がなされるまでの間、ユーザーは見知らぬメッセージや不審なコンテンツに対して、これまで以上に注意を払う必要がある。例えば、文章が自然になっているとはいえ、メールでリンクが送られクリックして不自然にログイン情報を入力するよう求められた場合、それは詐欺やフィッシングである可能性を疑った方が良い。
さらに、企業は、従業員に対してサイバーセキュリティに関する教育とトレーニングを提供することが重要となるだろう。これにより、悪意あるメールやジェネレーティブAIを利用した攻撃から自分自身や組織を守る方法を理解し、適切な対策を講じることができる。
また政府や規制当局は、生成AIの使用に関連する法律や規制を検討し、適切な枠組みを整備することが求められる。これにより、技術の正当な利用を促進しつつ、悪意ある行為やプライバシー侵害を最小限に抑える非庁がある。
生成AIの普及が進む中で、個人、企業、開発者、政府が連携して取り組むことで、サイバー攻撃に関わる潜在的なリスクを軽減しつつ、そのメリットを最大限に活用することができるだろう。
▼関連記事▼
米AI倫理団体、ChatGPTがFTCルール違反と主張し調査を求める