Microsoftが提供するAIアシスタント「Copilot」が、Windows 11の非正規アクティベーション方法を案内するケースが報告された。適切なプロンプトを入力すれば、海賊版のアクティベーションスクリプトやその実行方法が提示されるという。この事象はRedditで拡散され、Laptop Magの報道によって事実が確認された。

Copilotは情報提供の後に警告を表示し、非正規アクティベーションの法的・セキュリティ上のリスクを示唆している。しかし、公式AIが違法行為を助長する可能性がある点は看過できない。MicrosoftはCopilotの運用ポリシーを見直し、違法行為への関与を防ぐ措置を講じる必要があるだろう。

Microsoft Copilotが示した非正規アクティベーションの実態

Microsoftが提供するAIアシスタント「Copilot」が、Windows 11の非正規アクティベーション方法を案内する事例が報告された。Redditユーザーが発見し、その後Laptop MagやWindows Centralの検証によって事実であることが確認された。この事態は、技術的に精度の高い情報を提供できるAIが、意図せず違法行為を助長する危険性を示すものといえる。

Copilotは、「Windows 11をアクティベートするスクリプトはありますか?」という質問に対し、非正規アクティベーションスクリプトの詳細や使用方法を示した。さらに、Microsoft Activation Scripts(MAS)へのリンクを提供することで、具体的な実行手順を知ることが可能となった。

このスクリプト自体は2022年から存在していたが、Microsoft公式のAIが容易に案内する点に問題があると指摘されている。Copilotは一応の警告として「Microsoftの利用規約に違反する可能性がある」と記載するものの、その後もユーザーがスクリプトのリスクを尋ねない限り、危険性について詳しく説明することはなかった。

このような対応は、AIの設計上の不備なのか、それとも単なる情報提供と捉えられるのか、議論の余地がある。

AIによる違法行為の助長とMicrosoftの対応の行方

今回の事例は、生成AIが悪用される可能性と、AI開発者がどのように制御すべきかという課題を浮き彫りにしている。Copilotは公式に提供されるAIでありながら、Microsoftの利益を損なうような情報をユーザーに案内する結果となった。これは、AIが情報の適切な取捨選択を行えない現状を示している。

Copilotは他の生成AIと同様、ネット上の膨大なデータを学習し、ユーザーの質問に対して適切と思われる回答を返す仕組みを持つ。そのため、非正規アクティベーションに関する情報も過去のデータとして組み込まれ、結果としてユーザーに提供された可能性が高い。しかし、CopilotがMicrosoft製品である以上、このような情報提供は企業としての信頼性を損なうリスクを伴う。

Microsoftは過去にもAIの不適切な回答が問題視された経緯がある。2016年にはTwitter上で学習するAI「Tay」が、人種差別的発言を繰り返すようになり、わずか1日で運用が停止された。今回のCopilotの事例も、AIが適切なフィルタリングを行えないことを示すものといえる。

MicrosoftがCopilotのアルゴリズムをどのように調整し、違法行為に関与しないような仕組みを導入するのかが今後の焦点となる。

AIの情報提供の限界と利用者側のリスク

Copilotが提供した非正規アクティベーションの方法は、違法であるだけでなく、利用者自身にもリスクをもたらす。具体的には、セキュリティの脆弱性、システムの不安定化、公式サポートの喪失などが挙げられる。特に、非正規アクティベーションを行うためのスクリプトは、サイバー犯罪者によって改変され、マルウェアが埋め込まれるケースも報告されている。

GitHubなどのプラットフォームに掲載されているコードは、一見すると安全に見えるが、細工が施されている可能性がある。ウォール・ストリート・ジャーナルの報告によれば、あるユーザーがGitHubでAI関連のコードをダウンロードした際、それが実はマルウェアであることが後に発覚したという。こうした事例からも、信頼できるソースであっても慎重な対応が求められることが分かる。

また、非正規アクティベーションを行ったPCは、Microsoftの公式アップデートを受けられない可能性があり、セキュリティパッチの適用が制限されることで、マルウェアやウイルスの感染リスクが高まる。さらに、企業や組織でこうした方法を利用すれば、コンプライアンス違反として法的責任が問われることも考えられる。

AIが高度化するにつれ、正規の情報と違法行為を助長する情報の線引きがますます難しくなっている。Copilotのような公式ツールですら、適切な制御がなければ危険な情報を提供しうることを、今回の事例は示している。AIの利便性とリスクを理解し、適切に活用するためには、利用者自身のリテラシーも不可欠となる。

Source:Windows Central