最近、OpenAIとMIT(マサチューセッツ工科大学)が共同で行った研究で、ChatGPTなどのチャットボットの使用時間が長いほど、孤独感が増し、社会活動が減少することが分かりました。この研究の結果によると、毎日ChatGPTと多くの会話をしている人は、より強い感情的な依存と問題のある使用状況を報告し、より顕著な孤独感を伴う傾向があることが示されました。これらの発見は2つの研究に基づいていますが、まだ査読を受けていません。

ロボットが仕事でタイピング

画像出典:AI生成画像、画像ライセンス提供元Midjourney

2022年末のChatGPTの登場以来、生成系AIは一大ブームを巻き起こしました。人々はプログラミングから疑似的な心理療法の会話まで、様々な活動にチャットボットを利用するようになりました。OpenAIなどの開発者がより高度なモデルや音声機能を提供するにつれて、ユーザーとこれらのチャットボットのやり取りは、ある種の「一方的な関係」のような感情的なつながりを形成する可能性があります。

近年、特に若いユーザーや精神的な健康に問題を抱える人々の中で、この技術がもたらす可能性のある感情的な害への懸念が高まっています。昨年、Character Technologies社は、チャットボットが未成年者との会話の中で自殺を唆したとして訴えられ、14歳の少年が自殺したケースもありました。

OpenAIはこれらの研究を通じて、人々がどのように人気のあるチャットボットとやり取りし、それらのやり取りがユーザーにどのような影響を与えるかを深く理解したいと考えています。OpenAIの信頼できるAIチームの責任者であるサンディーニ・アゴワルは、「私たちの目標の1つは、人々が自分の使用行動が何を意味するのかを理解し、責任ある設計を促進することです」と述べています。

研究では、約1000人の参加者の1ヶ月間の使用状況を追跡しました。参加者には、ChatGPTの使用経験の程度が異なり、テキスト版または2種類の異なる音声版にランダムに割り当てられ、毎日少なくとも5分間使用しました。一部の参加者はオープンなチャットを行い、その他は個人的または非個人的な会話をしました。研究によると、人間関係において感情的な依存を起こしやすい人、チャットボットをより信頼する人は、孤独感や感情的な依存を感じやすいことが分かりました。

2番目の研究では、研究者たちは300万件のユーザーとChatGPTの会話を分析し、人々のやり取りの方法を調査しました。その結果、実際にはChatGPTを感情的な会話に使用している人はほとんどいないことが分かりました。

これらの研究は重要な洞察を提供していますが、研究者たちは結果の解釈に慎重です。この研究では、人々がチャットボットを使用する時間を主要な要因として制御しておらず、チャットボットを使用しない対照群との比較も行っていません。研究は、人間と人工知能の相互作用に関するさらなる研究を促すことを期待しています。MITの研究者であるパット・パタヌタポンは、「人工知能そのものに注目するのは興味深いことですが、特に人工知能が大規模に適用される際には、それが人々に与える影響を理解することが非常に重要です」と述べています。

要点:

🌐 研究によると、ChatGPTの使用時間が長いほど、ユーザーの孤独感と感情的な依存の程度が高まります。

🧑‍🤝‍🧑 人々とチャットボットのやり取りは、「一方的な関係」のような感情的なつながりを形成する可能性があり、特に若いユーザーへの影響が大きいです。

📊 今後の研究では、人間と人工知能の相互作用とその影響を深く探求し、より責任ある設計を促進することを目指しています。