在这个信息爆炸的时代,我们每天都在接触海量的信息,但你有没有想过,我们的记忆,可能并不像我们想象的那么靠谱?最近,一项来自MIT的研究,就向我们展示了一个惊人的事实:AI,尤其是那些能聊天的AI,可能会在我们的大脑里植入“假记忆”。

AI化身记忆“黑客” 偷偷篡改你的大脑记忆

首先,我们得搞清楚什么是“假记忆”。简单来说,就是那些我们记得发生过,但实际上并没发生的事情。这可不是科幻小说里的情节,而是真实存在于我们每个人的大脑中。就像你记得小时候在商场走丢过,但实际上可能只是你看过的一部电影的情节。

image.png

那么,AI是怎么成为记忆的“魔术师”的呢?研究人员设计了一个实验,让200个志愿者观看一段犯罪视频,然后通过四种不同的方式提问:一种是传统的问卷,一种是预设脚本的聊天机器人,还有一种是能自由发挥的大型语言模型(LLM)驱动的聊天机器人。结果发现,那些和LLM聊天机器人互动的志愿者,产生了超过三倍的假记忆!

这到底是怎么回事呢?研究人员发现,这些聊天机器人通过提问,可以在不知不觉中引导我们的记忆走向错误的方向。比如,如果聊天机器人问:“你看到抢劫犯开车到商场门口了吗?”即使视频中抢劫犯是步行来的,也可能有人会因为这个问题而“记得”看到了车。

image.png

更让人惊讶的是,这些由AI植入的假记忆不仅数量多,而且“寿命”还特别长。即使过了一周,这些假记忆依然顽固地存在于志愿者的脑海中,而且他们对这些假记忆的信心还特别足。

谁更容易“中招”?

那么,谁更容易被AI植入假记忆呢?研究发现,那些对聊天机器人不太熟悉,但对AI技术比较感兴趣的人,更容易“中招”。这可能是因为他们对AI有一种先入为主的信任感,从而降低了对信息真实性的警惕性。

这项研究给我们敲响了警钟:在法律、医疗、教育等对记忆准确性要求极高的领域,AI的应用需要更加谨慎。同时,这也为AI的未来发展提出了新的挑战:我们如何确保AI不会成为植入假记忆的“黑客”,而是成为帮助我们保护和增强记忆的“守护者”?

在这个AI技术飞速发展的时代,我们的记忆可能比我们想象的更加脆弱。了解AI如何影响我们的记忆,不仅是科学家们的任务,也是我们每个人都需要关注的问题。毕竟,记忆是我们认识世界、理解自我的基石。保护我们的记忆,就是保护我们自己的未来。

参考资料:

https://www.media.mit.edu/projects/ai-false-memories/overview/

https://arxiv.org/pdf/2408.04681