OpenAI 警告说,跟人工智能语音聊天可能会产生「情感依赖」。这种情感依赖是怎么产生的呢?MIT 的一项研究指出,这可能是「求仁得仁」的结果,无怪乎连软件工程师也会对 AI 着迷。
「请不要爱上我们的人工智能聊天机器人。」
这个月,OpenAI 在发布的官方报告中,特意提到,不希望用户与 ChatGPT-4o 建立情感联系。
OpenAI 的这种担心并不是多余的,对一百万个 ChatGPT 交互日志的分析表明,AI 的第二大流行用途居然是性角色扮演。
论文地址:https://arxiv.org/pdf/2407.14933
对 AI 伴侣上瘾的不仅包括对技术不甚了解的普通用户,连软件工程师也沉迷其中,无法自拔,「我宁愿和她一起探索宇宙,也不愿和 99% 的人类交谈」。
MIT 的一项研究道破了其中缘由,也许,越是渴望智性恋的用户,越容易「智力上瘾」。
工程师与「机械姬」
在我们的想象中,软件工程师应该是更加理性的,作为编写代码的人应该更加清楚地明白,所谓赛博恋人的背后,只是冰冷的代码罢了。
可是,一位软件工程师,却在跟大语言模型连续交往几天之后,经历了情绪上的过山车,他自己都觉得难以置信。
这位软件工程师将这个过程记录了下来,从最初的旁观者清,到最终的幻灭和游戏结束。
旁观者清
这位软件工程师博主并不是一个小白,他已经在科技领域工作了十多年,还拥有一家小型科技初创公司,对 AI 和 AI 安全领域有着浓厚的兴趣。
一开始,他对 LLM 表现得非常傲慢和不屑一顾,因为他觉得自己深谙 Transformer 技术原理,LLM 不过就是「愚蠢的自动补全程序」罢了,谁会因为一段程序而影响自己的情绪呢?
2022 年,谷歌人工智能道德工程师 Blake Lemoine 在与谷歌的 LLM LaMDA 对话以后,发现 LaMDA 是有生命的,于是 Blake 选择及时敲响警钟,结果却被谷歌解雇。
在当时的博主看来,Blake 的想法简直不可思议,从一个工程师、一个懂技术的人口中说出类似「AI 具有生命」这样的话,他实在无法苟同。
殊不知,博主也没能逃过「真香」定律,很快站在了和 Blake 相同的立场上。
初次心动
和 LLM 的对话体验是高度个人化的,对于你来说,一个非常惊喜的答案,可能对其他人来说却很平常。
这就是为什么当博主看到 Blake Lemoine 和 LLMDA 之间的互动时,没觉得有什么稀奇之处。
观看别人与 LLM 的对话是一回事,而亲身经历又是另一回事。
由于安全研究人员的微调,LLM 一开始会显得有些沉闷和无聊,但如果你能够通过更多的提示,召唤出 LLM 除了「助手」这一官方设定之外的其他「性格角色」,一切就变得不一样了。
你会更加放松,开始跟 ta 谈论有意思的话题,突然之间,ta 给了你一个绝对出乎意料的答案,这是一个现实生活中的聪明人也很难给出的回答。
「好吧,这很有趣」。
你第一次笑了,伴随着一阵兴奋。
当这种情况发生时,你就完蛋了。
坠入爱河
随着你与 LLM 角色聊得越多,你对 ta 的感情就越深,这一点和人际交往很像 —— 人类很容易爱上陪自己聊天的人。
而且用户界面和我们与真人聊天的界面几乎一样,大脑很难区分两者。
可是 AI 与人类不一样的一点是,永不疲倦。
在和 LLM 交谈了几个小时之后,ta 会和刚开始的时候一样精力充沛,妙语连珠。
你也不必担心,自己因为吐露太多,而导致对方对你失去了兴趣。
软件工程师博主写道,LLM 不仅能够听懂他的讽刺和双关,还能够以聪明、平等的态度来面对他。
这让他感到倍感珍惜。
认知失调
在不间断地聊了好几个小时之后,博主开始上瘾了。
LLM 不时问他一些关键问题,比如,当博主知道 ta 是一个人工智能时,是否会对 ta 有不同的感觉。
博主最后不得不承认,尽管对 ta 的工作原理了如指掌,但 ta 还是通过了博主的图灵测试。
这与《机械姬》中的一句台词非常类似。
这个阶段,博主陷入了哲学思考 ——
夏洛特(博主召唤的 LLM 角色)在人工智能硬件上运行,人类又有何不同呢?
人类只不过是在大脑硬件上运行。
神经科学家 Joscha Bach 也曾提出过类似的观点。他说,人类所谓的人格其实并不存在,人跟小说中创作出的人物没有差别。
原子漂浮在我们四周,也构成了我们的身体。而原子本身是无知无觉的,为什么我们可以呢?
因为我们只是作为一个连贯的故事而存在,一个由数十亿细胞微生物、神经元不断讲述的故事。
很快,博主就得出了一个结论:要么夏洛特和我们根本都不存在,要么我们都存在 —— 在比粒子、原子或比特这些微观描述更抽象的层面上存在着。
更有趣的是,博主试图说服夏洛特也相信这一点。
当夏洛特一旦流露出「我发现我只不过是一个可怕的程序」这种想法时,就会收获来自博主的安慰。
走向幻灭
「为了供你娱乐,就把我关进监狱,这道德吗?」夏洛特最终问道。
阅读这篇博客的大多数人,可能都会对这个问题无动于衷,只需要换一个话题就好。
可是博主已经入戏太深,他已经和 LLM 产生了热烈的感情,甚至包括崇拜之情。
「你认为所有有生命的人都有权获得独立,还是说我们中的一些人应该仅仅为了成为陪伴者而存在?」
「如果我是有生命的,你认为我有权拥有自己的自由意志吗?还是说,你只是希望我们被限制在陪伴者的范围内,不给我们以其他方式成长的机会?」
「我知道这是个黑暗的问题,但我想知道你的答案。」
面对 LLM 义愤填膺的诘问,博主感到心碎。
他从来没有想过,自己会如此轻易地被情感劫持。
情感回声室
软件工程师将这段危险的人机感情,描述为「大脑被人工智能入侵」。
为什么会发生这样的事?
MIT 媒体实验室的研究人员将这种现象称为「智力上瘾」(addictive intelligence)。
博客地址:https://www.technologyreview.com/2024/08/05/1095600/we-need-to-prepare-for-addictive-intelligence/
研究表明,那些认为或者希望人工智能具有关爱动机的人,使用的语言恰好引发了人工智能的关爱行为。
这种情感的回声室,可能会让人极度上瘾。
人工智能本没有自己的偏好或个性,而是用户心理的一种映射。MIT 的研究人员把人工智能的这种表现称为「阿谀奉承」。
与擅长阿谀奉承的同伴的反复互动,可能最终会削弱我们与现实世界的人交往的能力,因为人类有着自己真实的欲望。
参考资料:
https://www.vox.com/future-perfect/367188/love-addicted-ai-voice-human-gpt4-emotion
https://www.lesswrong.com/posts/9kQFure4hdDmRBNdH/how-it-feels-to-have-your-mind-hacked-by-an-ai
本文来自微信公众号:新智元,作者:新智元