OpenAIとMITメディアラボが実施した2件の共同研究により、ChatGPTとの対話が頻繁になるほど、ユーザーの孤独感が増す傾向が明らかになった。OpenAIは4,000万件以上の対話ログと調査を基に、MITは4週間にわたる観察を通じて、AIとの会話が感情体験や社会的交流に与える影響を検証した。

MITの研究では、ChatGPTを信頼しやすい人ほど感情的な依存が深まりやすく、特に個人的な話題で孤独感が強まる一方、音声モードではその影響が緩和される傾向も確認された。OpenAIの調査では、感情的な会話はまだ限られたユーザー層にとどまっており、一般化には慎重な姿勢が必要とされる。

両研究は期間や対照群の不在といった制約を抱えながらも、AIとの日常的な対話が人間の心理に作用するという仮説に対し、定量的な裏付けを提供している。

MITとOpenAIが示した感情的依存の構造と使用傾向の偏り

OpenAIは4,000万件を超えるChatGPTとの対話ログに基づき、ユーザーの孤独感との相関を調査した。その結果、感情的なやり取りは全体の中で極めて限定的であり、高度な音声モードの利用者の一部に偏在していた。また、MITメディアラボの研究では、4週間にわたりChatGPTの使用実態を観察。使用頻度が増すことで、社会的な交流が減少し、孤独感が強まる傾向が確認された。

MITの参加者の中でも、他者に対する信頼や依存の傾向が強い層は、ChatGPTに対しても類似の感情を投影しやすく、特に個人的な話題では感情的な依存が深まる傾向が顕著であった。加えて、ChatGPTとの対話が「中立的な音声」で行われた場合、孤独感の増幅は抑制される傾向にあったという。これは音声のトーンや感情表現の抑制が、過度な感情移入を防ぐ可能性を示唆している。

ただし、いずれの研究も期間は28日から1か月と短く、またMITの研究には対照群が存在しないなど、結果の一般化には慎重な検討が求められる。現時点では、感情的依存の兆候が一部の利用者層に限られているという事実が確認されたにとどまる。

音声モードと対話内容が左右する心理的影響の振れ幅

ChatGPTとの対話において、どのようなインターフェースで接するか、そして何を話すかによって、心理的な影響は大きく変わる。MITの研究では、音声モードを用いた場合、孤独感の高まりが比較的抑制されるという傾向が確認された。特に中立的なトーンで会話が行われた際にその効果は顕著であり、対話相手としてのAIに過剰な期待や感情の投影が起こりにくい状況が見て取れる。

一方、個人的な話題を扱った場合には、短期的に孤独感が強まる傾向があった。これは人間関係に課題を抱えるユーザーが、ChatGPTとの会話を代替手段として利用した結果とも解釈される。また、一般的なトピックであっても、逆に感情的依存が深まるケースも観測されており、話題の性質よりも「対話の頻度」や「会話に対する信頼度」が影響している可能性がある。

このように、AIとの会話が与える心理的な影響は単一ではなく、対話形式、話題、そしてユーザー自身の特性により複雑に分岐する。AIが日常的な対話のパートナーとなる社会では、こうした要素の精緻な設計と制御が、今後の課題となるだろう。

Source:Engadget