スタンフォード大学の最新の報告によれば、ChatGPTやその他の先進的なAIシステムの背後にある企業は、そのトレーニングデータや動作方法について十分に透明でないと指摘されている。
OpenAIが今年3月にGPT-4の詳細を公開した際、研究者たちは100ページにわたる内容を提供したが、実際の構築方法や動作方法に関する重要な詳細は省略されていた。
このような情報の欠落は偶然ではなく、技術が誤用される恐れや競合他社に有利な情報を提供することへの懸念から、多くの大手企業が最も価値のあるアルゴリズムの動作を秘密にしているのである。
GPT-4とその秘密のベール
OpenAIが今年3月に公開したAI言語モデルGPT-4は、その能力の高さで驚きをもって迎えられた。このモデルはChatGPTの動力として機能しており、その詳細は100ページ以上にわたって公開されている。しかし、その中には実際の構築方法や動作方法に関する詳細が含まれておらず、これは偶然の欠落ではない。
OpenAIや他の大手企業は、最も価値のあるアルゴリズムの動作を秘密にする傾向がある。その理由として、技術が誤用される恐れや、競合他社に有利な情報を提供することを避けるためであると考えられる。このような秘密主義は、技術の進化とともに深まっている傾向がある。
スタンフォード大学の透明性調査
スタンフォード大学の研究者チームは、GPT-4やChatGPTの背後にあるようなAIシステムの透明性に関する調査を行った。この調査では、OpenAIのGPT-4やGoogleのPaLM 2、AmazonのTitan Textなど、10種類の異なるAIシステムが対象となった。
調査結果によれば、これらのモデルの透明性は13の異なる基準で評価され、その中で最も透明性が高かったのはMetaがリリースしたLlama 2であった。しかし、Llama 2のような「オープンソース」モデルでさえ、訓練に使用されたデータやその収集方法に関する情報が公開されていないため、実際の透明性は低いと評価されている。
最も透明性のあるAIと最も不透明なAI
スタンフォード大学の調査によれば、評価されたAIモデルの中で最も透明性が高かったのはMetaがリリースしたLlama 2であった。このモデルは13の異なる基準に基づいて評価され、透明性のスケールで54%以上のスコアを獲得した。
一方、最も透明性が低いと評価されたのはAmazonのTitan Textであった。しかし、Llama 2のような「オープンソース」とされるモデルでさえ、訓練データやその収集方法に関する情報が公開されていないため、実際の透明性は低いと指摘されている。
AIの未来:科学的進歩か利益追求か
AIの透明性に関する問題は、その分野の将来に大きな影響を与える可能性がある。近年のAIの繁栄に伴い、その分野は科学的な進歩よりも利益追求を重視する方向に進んでいるとの声もある。スタンフォード大学の報告は、競争上の理由からモデルが秘密にされる必要はないことを示唆している。透明性の高いモデルが競合他社との間で高いスコアを獲得していることから、これらのモデルは競合他社に後れを取ることなく、より透明になることができるとの結論が導かれている。
AIの氷山:表面下の秘密
AI技術の進化は、氷山の一角に過ぎない。表面上に見えるのはその一部で、その下には深く大きな部分が隠されている。スタンフォード大学の最新報告が示す通り、多くのAI企業はその技術の詳細を秘密にしている。しかし、この秘密主義は、技術の真の可能性やリスクを理解する上での障壁となっている。
OpenAIのGPT-4やその他のAIモデルの公開情報は、氷山の一角に過ぎない。その背後には、技術の構築方法や動作原理、さらにはその影響に関する詳細が隠されている。このような情報の欠落は、技術の誤用や競合他社への情報提供を避けるためのものであるとされるが、真の理由はもっと深いところにあるのかもしれない。
透明性の欠如は、AI技術の真の可能性を探る上での大きな障壁となっている。氷山の下部を探ることなく、その全体像を理解することはできない。同様に、AI技術の詳細を知らない限り、その真の価値やリスクを正確に評価することはできない。今後のAI産業の発展のためには、透明性の向上が不可欠である。