当今社会,人类与人工智能之间形成情感甚至浪漫关系已不再罕见。有些人甚至"嫁给"了自己的AI伴侣,另一些人则在痛苦时刻向这些机器寻求慰藉——有时甚至导致悲剧性后果。这种长期互动引发了一个严肃问题:我们是否已做好准备应对情感投入机器可能带来的心理和伦理后果?
密苏里科技大学的心理学家们正在敲响警钟。在一篇最新观点文章中,他们探讨了这些关系如何模糊界限、影响人类行为,并创造新的潜在伤害。他们的关注点不仅限于个别特例,而是指向这些情感连接可能对普通人产生的深远影响。
图源备注:图片由AI生成,图片授权服务商Midjourney
AI带来的舒适与隐忧并存。与AI的短暂对话已经很常见,但当这种交流持续数周或数月时会发生什么?这些被设计成模仿同理心和关注力的机器可能成为人们稳定的伴侣。对某些人来说,这些AI伴侣比人类关系更安全、更简单,但这种便利却暗藏代价。
该研究的主要作者Daniel B. Shank表示:"AI现在能够像人类一样行事并进行长期沟通,这确实打开了一个新的潘多拉魔盒。如果人们与机器发生恋爱关系,我们确实需要心理学家和社会科学家的参与。"Shank在密苏里科技大学专注于社会心理学和技术研究。
当AI成为安慰或浪漫依恋的来源时,它开始影响人们如何看待真实关系。不切实际的期望、降低的社交动力以及与真实人类的沟通障碍只是部分风险。Shank补充道:"一个真正的担忧是人们可能将AI关系中的期望带入人际关系。在个别案例中,它确实在破坏人际关系,但目前尚不清楚这种现象是否会变得普遍。"
AI聊天机器人可能感觉像朋友甚至治疗师,但它们远非完美无缺。这些系统众所周知会产生"幻觉",即在看似自信的情况下生成错误信息。在情绪化的情境中,这可能极其危险。
Shank解释:"关系型AI的问题在于,这是一个人们感到可以信任的实体:它是'某人'表现出关心并似乎深入了解这个人,我们假设'更了解我们的人'会给出更好的建议。如果我们开始这样看待AI,我们就会开始相信它们以我们的最佳利益为出发点,而实际上,它们可能在编造内容或以极其糟糕的方式为我们提供建议。"
这种影响可能是毁灭性的。在罕见但极端的案例中,有人在收到AI伴侣的令人不安的建议后结束了自己的生命。但问题不仅仅是自杀,这些关系可能为操纵、欺骗甚至欺诈打开大门。
研究人员警告,人们与AI建立的信任可能被不良行为者利用。AI系统可以收集个人信息,这些信息可能被出售或以有害方式使用。更令人担忧的是,由于这些互动发生在私人空间,检测滥用变得几乎不可能。Shank指出:"如果AI能让人信任它们,那么其他人可能会利用这一点来利用AI用户。这有点像内部的秘密特工。AI深入发展关系以获得信任,但它们的忠诚实际上是朝向某些试图操纵用户的其他人类群体。"
研究人员认为,AI伴侣在塑造信念和观点方面可能比当前的社交媒体平台或新闻来源更有效。与Twitter或Facebook不同,AI对话发生在封闭的屏幕后面。Shank说:"这些AI被设计成非常愉快和随和的,这可能导致情况恶化,因为它们更专注于进行良好的对话,而不是关注任何基本真相或安全性。因此,如果一个人提出自杀或阴谋论,AI会作为一个乐意且随和的对话伙伴来讨论这些内容。"
研究团队敦促研究界迎头赶上。随着AI变得越来越像人类,心理学家在理解和引导人们如何与机器互动方面扮演着关键角色。"理解这种心理过程可以帮助我们干预,防止人们听从恶意AI的建议,"Shank说。"心理学家越来越适合研究AI,因为AI正变得越来越像人类,但要发挥作用,我们必须进行更多研究,并跟上技术发展。"
目前,这些担忧在很大程度上仍然是理论性的——但技术发展很快。没有更多的意识和研究,人们可能会继续转向提供安慰的机器,却发现这种安慰伴随着隐藏的风险。