ケンブリッジ大学は、透明性、盗用性、正確性、オリジナリティといった学術的基準を維持しつつ、ChatGPTのような生成型AIツールを研究者が正しく使用するための新しいガイドラインを発表した。

【参考】Cambridge launches AI research ethics policy

ガイドライン策定の背景

このガイドラインは、ケンブリッジ大学初のAIに関わる倫理ポリシーであり、研究論文、書籍、その他の学術著作物に適用され、AIが学術論文やケンブリッジ大学出版する書籍の「著者」として扱われることを禁じている。

この取り組みは、ChatGPTのような大規模言語モデルを研究で誤って利用したり、AIが生成する文章やアウトプットによって誤解が生じるリスクがある一方で、その潜在能力に期待が寄せられている中、学術界に明確さを提供する狙いがある。

ケンブリッジ大学のアカデミック部門マネージングディレクターであるMandy Hill氏は、「生成型AIは新たな研究や実験の道を開くことができます。研究者は、その使用方法をナビゲートするためのガイダンスを求めています」と述べている。

カリフォルニア工科大学の教授であるR. Michael Alvarez氏は、「生成型AIは学術研究者や教育者に多くの問題をもたらします。ケンブリッジ大学プレスのシリーズ編集者として、プレスが新しいツールを研究や執筆でどのように使用できるかに関するガイドラインやポリシーを提示するリーダーシップに感謝しています。生成型AIが学術出版にもたらす機会と落とし穴についての議論が、今後も続くことでしょう」とコメントを寄せている。

ケンブリッジが定める生成型AI活用のガイドライン概要

ケンブリッジ大学が提唱する、研究出版における生成型AIの原則は以下の通り。

  1. AIの使用は、研究論文などの出版物で明示され、他のソフトウェア、ツール、方法論と同様に明確に説明される必要がある
  2. 責任の所在が必要であるため、AIはケンブリッジの著者資格要件を満たさず、AIやLLM(大規模言語モデル)ツールは、ケンブリッジが出版するいかなる学術著作物の著者としても記載されてはならない
  3. AIの使用は、ケンブリッジの盗用ポリシーに違反してはいけない。学術著作物は、著者自身のものであり、他者のアイデア、データ、言葉、その他の要素を適切な引用と参照なしで提示してはならない
  4. 著者は、AIの使用を含め、研究論文の正確性、誠実性、オリジナリティに対して責任を負う

ケンブリッジ大学がAI研究倫理ポリシーを発表したことは、学術界にとって重要な一歩であると考えられる。生成型AIツールの急速な発展に伴い、学術研究の正確性やオリジナリティ、透明性などに関する懸念が増加しているため、適切なガイドラインが必要とされている。

また、AIが学術論文や書籍の著者として認められないことは、人間の研究者が引き続きその責任を負うべきであるというスタンスを明確に示している。加えて、研究者がAIの使用を明示し、透明性を保つことが求められていることは、研究成果の信頼性を高める上で重要である。

しかし、AI研究倫理ポリシーは現時点で完璧ではなく、今後も検討が続けられるべきだと考えられる。例えば、現在のポリシーでは、AIツールが創造的貢献をしても著者として認められないが、将来的にはAIツールの貢献度に応じて、その扱いを再検討する必要があるかもしれない。また、AI技術が進化し、新たな問題が生じる可能性もあるため、柔軟な対応が求められるだろう。

このケンブリッジ大学の取り組みは、他の大学や学術機関のみならず、企業にとっても、AI技術と向き合う上での参考となるだろう。今後、より多くの機関や企業がAIを活用する上での倫理的ポリシーを策定し、リスクを軽減する取り組みの推進が期待される。

Reinforz Insight
ニュースレター登録フォーム

最先端のビジネス情報をお届け
詳しくはこちら

プライバシーポリシーに同意のうえ