イーロン・マスク氏を始めとする著名な技術者、研究者が、OpenAIに対して、ChatGPTの開発を一時停止するよう求めていることが、海外ビジネス誌による複数の報道で明らかになった。
イーロン・マスク、スティーブ・ウォズニアック、アンドリュー・ヤンをはじめとする著名な技術者、経営者らは、2022年11月に公表された生成型AIツールGPT-4よりも強力なAIシステムの開発を6か月間停止するよう求める公開書簡に署名したとされている。
▼関連記事▼
イーロン・マスクとは何者か徹底解説:経歴・資産・年収・ChatGPTや仮想通貨との関係に迫る【まとめ】
Future of Life Instituteが一時停止を求める書簡を発表
非営利団体Future of Life Instituteによるこの書簡では、もしOpenAIが現行のGPT4実装を超えるAIの開発を停止しない場合、「政府」が問題解決を強制すべきだと主張。「すべてのAI研究機関に、GPT-4よりも強力なAIシステムの開発を少なくとも6か月間停止するよう求める。この停止要請にはすべての主要な関係者が含まれるべきです。もしすぐにこのような停止が実行されない場合、政府は介入すべきだ」と書簡には記されている。
この書簡には現在1,100人以上の署名があると報道されているが、一部の報道では、すべての著名人が実際に書簡に署名したのかどうかは疑問視されていいる。注目すべき署名者には、Turing賞受賞者のヨシュア・ベンジオ、Intelligent Systems Centerのディレクターであるスチュアート・ラッセル、スタビリティAIのCEOエマド・モスタケ、リップル共同創設者のクリス・ラーセンなどが含まれている。
Future of Life Institute副会長のアンソニー・アギレは、海外の報道機関に対して、「リストの署名者はすべて発表団体とは独立して検証されている」と語っている。彼はまた、「(現在は3万人以上になっている)全リストに対して検証を行うことは、(業務上)現実的ではない」と付け加えました。
GPT-4の登場は、あらゆる領域で抜本的な変革が実現されうる一方で、制御が効かなくなると人類を滅ぼす可能性があることを懸念する人々の間で警鐘が鳴らされている。書簡は、人間と競争できる知能を持つAIシステムが社会と人類に重大なリスクをもたらすと主張。また、現行のAIツールやシステムをより正確で、安全で、透明性があり、堅牢で信頼性が高くすることに焦点を当てるべきであり、AIガバナンスシステムの開発を加速すべきだとも述べている。
技術の急速な進化に伴うリスクへの警鐘
上記のニュースにより、技術の急速な進化とそれに伴う懸念が明示されている。AI開発の中断を求める書簡は、現代のテクノロジーと倫理における重要な議論を提起された。
AI技術の進化は確かに多くの利点をもたらす一方で、そのリスクや潜在的な課題も無視できない。業界のリーダーたちが開発の一時停止を提案することは、技術の適切なガバナンスと規制の必要性を浮き彫りにしています。
このニュースはまた、AI開発者や研究者たちが技術の進歩に責任を持つことの重要性を示していると言える。現代のAIシステムはますます人間の知能に近づいているため、社会や個人に与える影響を十分に考慮し、適切な対策を講じることが不可欠だ。AI技術者や研究者は、技術の安全性、透明性、堅牢性、信頼性を向上させる努力を続けることが求められるだろう。