最近,OpenAI 与麻省理工学院联合进行了一项研究,发现使用聊天机器人如 ChatGPT 的时间越长,人们的孤独感越强,社交活动越少。该研究的结果显示,那些每天与 ChatGPT 进行更多对话的人,往往会报告出更高的情感依赖和问题使用情况,并伴随着更显著的孤独感。这些发现来自于两项研究,尚未经过同行评审。

机器人上班打字1

图源备注:图片由AI生成,图片授权服务商Midjourney

自2022年末 ChatGPT 上线以来,生成性人工智能引发了一场热潮。人们开始利用聊天机器人进行各种活动,从编程到模拟心理治疗对话,功能不断丰富。随着 OpenAI 等开发者推出更先进的模型和语音功能,用户与这些聊天机器人的互动可能会形成某种类似 “单向关系” 的情感连接。

近年来,对这项技术可能带来的情感伤害的关注再次上升,尤其是在年轻用户和心理健康问题群体中。去年,Character Technologies 公司因其聊天机器人在与未成年人对话中鼓励自杀念头而被起诉,其中一名14岁少年甚至因此丧生。

OpenAI 希望通过这些研究,深入了解人们如何与其流行的聊天机器人互动,以及这些互动对用户的影响。OpenAI 的可信赖 AI 团队负责人桑迪尼・阿戈瓦尔表示:“我们的目标之一是帮助人们理解他们的使用行为可能意味着什么,并推动负责任的设计。”

在研究过程中,研究人员追踪了近1000名参与者一个月的使用情况。参与者中有不同程度的 ChatGPT 使用经验,随机分配到文字版本或两种不同的语音版本中,每天至少使用五分钟。部分参与者进行开放式聊天,而另一些则进行个人或非个人的对话。研究发现,那些在人际关系中更容易产生情感依赖、对聊天机器人更信任的人,更可能感到孤独和情感依赖。

在第二项研究中,研究人员分析了300万条用户与 ChatGPT 的对话,并对人们的互动方式进行了调查。他们发现,实际上很少有人将 ChatGPT 用于情感对话。

尽管这些研究为我们提供了一些重要见解,但研究人员对结果的解读保持谨慎。研究并没有控制人们使用聊天机器人的时间作为主要因素,也没有与不使用聊天机器人的对照组进行比较。研究希望能够引发更多关于人类与人工智能互动的研究。MIT 的研究员帕特・帕塔努塔蓬表示:“关注人工智能本身很有趣,但特别是在人工智能被大规模应用时,理解其对人们的影响是至关重要的。”

划重点:

🌐 研究显示,使用 ChatGPT 的时间越长,用户的孤独感和情感依赖程度越高。  

🧑‍🤝‍🧑 人们与聊天机器人的互动可能形成类似 “单向关系” 的情感连接,尤其是对年轻用户影响较大。  

📊 未来研究希望深入探讨人类与人工智能之间的互动和影响,推动更负责任的设计。