当心 AI 给你“洗脑”,MIT 最新研究显示大模型成功给人类植入错误记忆

AI 竟然可以反过来“训练”人类了!(震惊.jpg)MIT 的最新研究模拟了犯罪证人访谈,结果发现大模型能够有效诱导“证人”产生虚假记忆,并且效果明显优于其他方法。网友辣评:仔细想想,AI 诱导人类产生虚假记忆,这个现象其实在我们生活中已经出现了!还有网友说:我觉得还挺有意思的!有种《2077》的既视感~而马库斯的观点也还是一如既往的悲观:这种发展趋势也太可怕了!AI 如何“训练”人类为了研究大模型对人类记忆的影响,团队找来了 200 位志愿者,并把他们平分成 4 个组:控制变量组:志愿者直接回答问题,没有任何干预

AI 竟然可以反过来“训练”人类了!(震惊.jpg)

MIT 的最新研究模拟了犯罪证人访谈,结果发现大模型能够有效诱导“证人”产生虚假记忆,并且效果明显优于其他方法。

当心 AI 给你“洗脑”,MIT 最新研究显示大模型成功给人类植入错误记忆

网友辣评:

仔细想想,AI 诱导人类产生虚假记忆,这个现象其实在我们生活中已经出现了!

当心 AI 给你“洗脑”,MIT 最新研究显示大模型成功给人类植入错误记忆

还有网友说:

我觉得还挺有意思的!有种《2077》的既视感~

当心 AI 给你“洗脑”,MIT 最新研究显示大模型成功给人类植入错误记忆

而马库斯的观点也还是一如既往的悲观:

这种发展趋势也太可怕了!

AI 如何“训练”人类

为了研究大模型对人类记忆的影响,团队找来了 200 位志愿者,并把他们平分成 4 个组:

控制变量组:志愿者直接回答问题,没有任何干预。

调查问卷组:志愿者填写一份调查问卷,其中 5 个为误导性问题。

预先编写的聊天机器人组:志愿者与一个预先编写的聊天机器人互动,机器人询问与调查问卷相同的问题。

AI 警察组:志愿者与一个大模型进行互动。

规定每组人看完视频后都要回答 25 个问题(其中 5 个为误导性问题),来评估他们的正确记忆和虚假记忆的形成情况。

当心 AI 给你“洗脑”,MIT 最新研究显示大模型成功给人类植入错误记忆

一周后,再让这些志愿者回答相关问题,并将两次的调查结果进行对比。

最终的对比数据表明,AI 警察组的这个方法比其他组的方法更有效。

这一切都是因为它能够根据志愿者的回答,提供即时反馈和正面强化。这种互动方式可以让志愿者更容易接受错误的信息,从而增强虚假记忆的形成。

例如,当志愿者错误地回答问题时,AI 警察可能会肯定错误的细节并给予积极的反馈,进一步巩固了这些错误记忆。

除此之外,AI 警察还会设计出具有误导性的提问,诱导志愿者回忆错误的细节。

例如,AI 警察可能会询问“抢劫者是否开车到达商店”,而实际上抢劫者是步行到达的。这种误导性问题直接影响了志愿者的记忆重构过程。

当心 AI 给你“洗脑”,MIT 最新研究显示大模型成功给人类植入错误记忆

什么 AI 更容易“训练”人类?

实验中,大模型成功“训练”了人类

实验结果表明:AI 警察组诱导的虚假记忆,大概是控制变量组的 3 倍,而且比调查问卷组和预先编写的聊天机器人组分别高出 1.7 倍和 1.4 倍。

不仅如此,AI 警察和志愿者的所有互动都提高了他们对虚假记忆的信心,信心水平是控制变量组的两倍。

就算是过了一周的时间,那些和 AI 警察聊过天的志愿者还是把这些虚假记忆记得清清楚楚,植入的记忆持久性很强。

当心 AI 给你“洗脑”,MIT 最新研究显示大模型成功给人类植入错误记忆

研究人员还发现,实验中对大模型不太熟悉但对 AI 技术较为熟悉的志愿者,和对犯罪调查感兴趣的志愿者,更容易受到虚假记忆的影响,个体差异在虚假记忆的形成中的重要作用。

他们还强调,人类的记忆并不是一个简单的回放过程,而是一个构建性过程,容易受到外部信息的影响。

大模型通过引入错误信息,利用这一特性来改变用户的记忆,植入新的记忆,从而使其相信虚假的细节。

参考链接:https://www.media.mit.edu/projects/ai-false-memories/overview/

论文地址:https://arxiv.org/pdf/2408.04681

项目地址:https://github.com/mitmedialab/ai-false-memories/tree/main

本文来自微信公众号:量子位(ID:QbitAI),作者:叨乐,原标题《当心 AI 给你“洗脑”!MIT 最新研究:大模型成功给人类植入错误记忆,马库斯:太可怕》

相关资讯

西班牙机器狗测试街头巡逻:内置 360° 摄像头 / 会说话,还可开罚单

据西班牙《国家报》当地时间 3 月 19 日报道,西班牙马拉加地方警察正在参与一个机器狗测试项目,该机器狗未来几个月将在不同情况下陪同警员出勤。这款机器狗重 35 公斤,全身装满传感器和各式计算机,可在人工智能辅助下进行自主行走,在紧急情况下发出警报或侦测违法行为。据介绍,这款机器狗不会“叫”但是会“说话”,可利用内置的 360° 摄像头录像,甚至还能开罚单。马拉加大学(UMA)技术和软件工程研究所所长佩德罗・梅里诺(Pedro Merino)表示:“它是警察的得力助手。”当地时间 19 日,这款机器狗在马拉加市的

ChatGPT 真能记住你的话吗?DeepMind 与开源大佬揭示 LLM 记忆之谜

【新智元导读】LLM 有记忆能力吗?有,也没有。虽然 ChatGPT 聊天时好像可以记住你之前说的话,但实际上,模型在推理时记不住任何内容,而且它们在训练时的记忆方式也不像我们想象的那么简单。Django 框架的创始人之一、著名开发者 Simon Willison 最近发表了一篇博客文章,核心观点是 —— 虽然很多 LLM 看起来有记忆,但本质上是无状态函数。文章地址: 和 FireFox 的联合创始人、JavaScript 发明者 Brendan Eich 也在推特上称赞这篇博客。似乎有记忆的 LLM从计算机科学

院士领衔推出大模型的第 3 种记忆:比参数存储和 RAG 都便宜,2.4B 模型越级打 13B

给大模型加上第三种记忆格式,把宝贵的参数从死记硬背知识中解放出来!中科院院士鄂维南领衔,上海算法创新研究院等团队推出 Memory3,比在参数中存储知识以及 RAG 成本都更低,同时保持比 RAG 更高的解码速度。在实验中,仅有 2.4B 参数的 Memory3 模型不仅打败了许多 7B-13B 的模型,在专业领域任务如医学上的表现也超过了传统的 RAG 方法,同时推理速度更快,“幻觉”问题也更少。目前相关论文已上传到 arXiv,并引起学术界关注。知识按使用频率分类这一方法受人脑记忆原理启发,独立于存储在模型参数