AI倫理団体であるCenter for AI and Digital Policy(CAIDP)が、米国連邦取引委員会(FTC)に対し、大規模な言語学習モデルの開発を停止するよう求める要請を提出した。この要請は、OpenAIが最近リリースしたGPT4モデルが「偏見があり、欺瞞的であり、プライバシーや公共の安全にリスクをもたらす」と主張している。

CAIDPの主張

今回の要請には、GPT4よりも強力なLLM(大規模言語モデル)の開発を一時停止するよう求めるイーロン・マスク氏を始めとする書簡が発表された翌日に提出された。

参考:イーロン・マスク氏がChatGPTのアップデートに対して6か月の一時停止を低減

書簡では、より強力なLLMが「社会や人類に深刻なリスクをもたらす可能性がある」と懸念が示されている。しかし、CAIDPは、AIが人類に対する存続の脅威であるという大それた提言ではなく、FTCの指針に焦点を当てている。

FTCの指針では、AIシステムは「透明性があり、説明可能であり、公平であり、経験的に確かであり、責任を持つべき」とされており、GPT4はこれらの基準を満たしていないとCAIDPは主張。

CAIDPの要請によれば、今月初めにリリースされたGPT4は、第三者による独立した評価がなされないまま公開されたとしている。CAIDPは、ChatGPTがデマの拡散、サイバーセキュリティの脅威への寄与、既知のAIモデルの偏見強化につながる可能性があると警告しており、「FTCは行動を起こすべき時だ」とCAIDPは述べている。

FTCは、進化が著しいAIが消費者に与える潜在リスクについて懸念を示している。「悪意あるものがAIツールを使って、リアルだが偽のコンテンツを迅速かつ安価に生成し、大規模なグループや特定のコミュニティ、特定の個人に拡散することができるという証拠がすでに存在している」とFTCは見解を述べている。

倫理的な側面から見る対処の必要性

AIの発展に伴い、倫理的な問題がますます浮き彫りになっている。ChatGPTの登場でAIの使用がますます一般的になる中、問題への対処は急務だ。

公的組織や政府が一定の介入を求められている一方で、ChatGPTは、日常的なテキスト生成や言語処理タスクの自動化など、さまざまな分野で役立つことが期待されている。技術の向上と同時に、ChatGPTのような技術が安全に利用されるためには、更なる議論や対策が必要であると言える。

特に、ChatGPTのような自然言語処理技術は、その使用方法によって、人々のプライバシーや安全性に関わる問題を引き起こす可能性がある。このような問題に対処するためには、技術の開発者や利用者、そして政府や規制当局が協力して、適切な規制やガイドラインを策定する必要があるのではないか。

また、CAIDPの指摘にもあるが、AIシステムが人々に与える影響を評価するために、独立した第三者の監査機関が必要とされている。加えて、AI技術に関する情報公開やデータのオープン化などに取り組むことで、技術の透明性を確保することも重要だ。

更に、社会的な解決策も必要になるだろう。例えば、AIによって職業が失われる可能性が謳われているが、社会的な保障や再教育プログラムの必要性がある。また、AIによって生み出される情報や意思決定が、社会的な偏りを生じさせる恐れもあるため、多様性を尊重するアルゴリズム開発も考慮しなければならない。

Reinforz Insight
ニュースレター登録フォーム

最先端のビジネス情報をお届け
詳しくはこちら

プライバシーポリシーに同意のうえ