Microsoft Researchの論文によると、OpenAIの人工知能システムGPT-4が「AGI(汎用人工知能)」の兆候を示し、広範囲の知識領域でほぼ「人間レベル」のパフォーマンスを発揮しているとされている。
参考:Microsoft “Sparks of Artificial General Intelligence“
AIモデルGPT-4の驚異的な能力
AGIは人間と同様に世界を理解し、多様なタスクをこなす方法を学ぶ能力を有する。Microsoft研究者によってテストされたGPT-4の初期バージョンは、「以前のAIモデルよりも一般的な知性を示している」と論文では述べられている。
さらに、GPT-4は数学、コーディング、視覚、医学、法律、心理学などのタスクを解決し、それら全てのタスクで、GPT-4のパフォーマンスは人間レベルに驚くほど近く、以前のモデルを大きく上回っている、という。
▼関連記事▼
汎用人工知能(AGI)の全貌:技術進歩、応用例、リスクと未来展望
GPT-4は、「非常に高いレベル」でコードを書き、既存のコードを理解する能力が確認されている。ただし、セマンティックに誤りがあったり、構文的に無効なコードを生成することから「まだコーディングにおいて完全ではない」。しかし、人間のフィードバックに反応してコードを改善することが可能である。
一方、数学の分野では、GPT-4は数学的概念を表現し、関連する問題を解決できる。数学的思考やモデル構築が求められる問題に直面した際、GPT-4は定量的な推理を適用できた。しかしながら、数学の研究を行う能力を持たないため、まだ「専門家のレベルからはかなり遠い」と言われている。
技術競争か人間社会の”保護”か – AIの急速な進歩に対する警鐘
また、複数の知識領域からスキルや概念を流動的に結合する能力を示し、複雑なアイデアを理解する「印象的な能力」を示した。例えば、GPT-4はアートとプログラミングを組み合わせ、カンディンスキー風のランダムなイメージを生成するコードを生成した。
しかしながら、論文の中で研究者たちはGPT-4のテスト手法が「いくぶん主観的で非公式であり、科学的評価の厳格な基準を満たしていない可能性がある」と認めている。
その一方で、AIの急速な進歩について警鐘を鳴らしている専門家も増えている。「AIのゴッドファーザー」と称されるコンピュータ科学者のジェフリー・ヒントンは、Googleを離れてAI技術について話すことを選んだ。彼は、「悪意のある行為者がそれを悪いことに利用するのを防ぐ方法はない」とニューヨークタイムズのインタビューで語っている。
人間レベルの知性を示すGPT-4と、現在のAI技術への懸念
AIの発展は驚くべき速さで進んでいる。OpenAIのGPT-4の能力はその最良の例である。その幅広い知識ドメインでのパフォーマンスは、人間レベルに近いとされ、その一般知性は前モデルと比較して飛躍的に向上している。しかし、技術の進歩は、必ずしも全てがポジティブな影響をもたらすわけではない。
Microsoft Researchの論文は、このAIモデルが既存のコードを理解し、新たなコードを生成する能力、数学的概念を表現し解決する能力、さらには多様なツールを使用して自己の制限を克服する能力などを指摘している。これらは間違いなく素晴らしい成果である。しかし、それと同時に、一部の研究者からは「GPT-4が真の一般知性を持つという考えにはまだ遠い」、また「商業的な目的が背後にあるのではないか」という疑問も呈されている。
そして、大きな問題となっているのが、AIの急速な発展がもたらす潜在的なリスクである。AIの神父とも称されるジェフリー・ヒントン氏は、技術の発展が制御不能な状況を招く可能性を警告している。内容生成能力の増大は、事実とフィクションの区別がつかなくなる状況を引き起こす可能性があり、さらには、AIが人間の多くの仕事を置き換え、完全自律的な兵器を生み出す可能性があると指摘している。
このような背景を鑑みると、今後のAI開発の進行方法について、慎重な議論が必要である。特に、大手テクノロジー企業間の技術競争が、無秩序なAIの発展を促進する可能性があることに注意が必要だ。今後のAIの進歩は、競争ではなく、共同体全体の協力と議論によって導かれるべきである。