シスコシステムズ社は、OpenAIのChatGPTのような人工知能ソフトウェアにより、フィッシング詐欺がより検出しにくくするため、企業が新たな防御策を採用する必要があると警告している。Bloomberg社が報じた。

参考:Cisco Sees AI Software Making Phishing Attacks Harder to Resist

ジェネレーティブAIによるフィッシング詐欺の助長リスク

不正アクセスの約80%はすでにフィッシングによるもので、ハッカーは人々に悪意のあるリンクを開くようにメールやテキストを送信する。ChatGPTの様なAIツールはこれらのメッセージをすばやくカスタマイズし、より多くのハッカーが効率的にタスクを遂行してしまうと、シスコのセキュリティおよびコラボレーション部門の責任者であるジートゥ・パテル氏は述べている。

これまで、フィッシングメールは個々の受信者に合わせていないため、見分けやすかった。正規のメールと比較すると綴りの間違いや文章に違和感があるなど、見分ける手がかりがあった。ジェネレーティブAIを活用した新世代の攻撃では、人間のユーザーが偽装を見抜くことがより難しくなり、ネットワークのシャットダウンや脅迫試みの脅威が高まる、としている。

パテル氏によれば、解決策は「インターネットトラフィックデータを迅速に取り込み、サイバー攻撃が起ころうとしているか、または起こっただろうと示すパターンを早急に特定すること」だという。シスコはこれをビジネス機会と見ているようだ。彼は、ネットワーキング機器市場でリーダーである同社は、データフローを分析する機能をレバレッジできると述べている。

AI技術革新に応対を早急な打ち手が肝要

人工知能ソフトウェア、特にOpenAIのChatGPTのような言語生成の技術が進化することで、フィッシング攻撃がより高度で検出が難しくなるという懸念がある。これは、企業や個人がセキュリティ対策を見直す必要があることを示唆している。

これまでのフィッシング攻撃は、大量のターゲットに対して一括で送信されるメールやメッセージが一般的だった。またこれらの攻撃は、文法や綴りの誤りが含まれることが多く、かつ同じ内容が多数の人々に送信されるため、比較的容易に見抜かれることが多かった。

しかし、AI技術の進歩により、攻撃者が各個人の趣味や興味に合わせてメッセージをカスタマイズすることが容易になる。例えば、ソーシャルメディアやオンラインフォーラムでの投稿を解析し、ターゲットが関心を持つトピックや活動に関する情報を抽出することができるかも知れない。これにより、攻撃者はターゲットが信頼できる情報源からのメッセージだと誤認するような、よりリアリティのあるフィッシングメールをすぐに作成できる。

加えて、AI技術を利用したフィッシング攻撃では、文法や綴りのミスが大幅に減ることが予想される。これにより、従来のフィッシング攻撃を見抜くための指標が失われるため、攻撃に気づかずに個人情報を漏らしてしまうリスクが高まる。

従来の防御策では、一定のパターンを持つフィッシング攻撃をフィルタリングすることが可能だったが、AIを利用した個別にカスタマイズされた攻撃に対しては、その効果が限定的になる可能性がある。このため、企業や個人は、より高度な異常検出技術やAIを利用したセキュリティソリューションを検討し、導入することが求められるだろう。

この状況は、企業や個人が新しいセキュリティ対策を追求する契機となる。また、従業員やユーザーに対するセキュリティ意識の向上や、AIを利用したセキュリティソリューションの新規導入も検討されるべきだ。

Reinforz Insight
ニュースレター登録フォーム

最先端のビジネス情報をお届け
詳しくはこちら

プライバシーポリシーに同意のうえ