英国格拉斯哥大学哲学钻研职员谈“AI 幻觉”:用“胡言乱语”来形容更正确

长期以来,人们常常把大谈话模型提供的看似合理但讹夺百出的答案称作“AI 幻觉(AI hallucinations)”。然而,来自英国格拉斯哥大学的三名哲学钻研职员近期提出了不同的看法 ——“AI 幻觉”这样的描写并不正确。当地时间 6 月 8 日,《伦理与信息技术》杂志刊登了三名钻研职员的论文。这篇论文指出,聊天机器人“胡编乱造”回答的行为不应被称为“幻觉”,用“胡言乱语(bullshitting)”一词来描写才更正确。钻研职员指出,学习过心理学或使用过迷幻类药物的人都知道,“幻觉”通常被定义为看到、感知到不存在的

长期以来,人们常常把大谈话模型提供的看似合理但讹夺百出的答案称作“AI 幻觉(AI hallucinations)”。然而,来自英国格拉斯哥大学的三名哲学钻研职员近期提出了不同的看法 ——“AI 幻觉”这样的描写并不正确。

当地时间 6 月 8 日,《伦理与信息技术》杂志刊登了三名钻研职员的论文。这篇论文指出,聊天机器人“胡编乱造”回答的行为不应被称为“幻觉”,用“胡言乱语(bullshitting)”一词来描写才更正确。

钻研职员指出,学习过心理学或使用过迷幻类药物的人都知道,“幻觉”通常被定义为看到、感知到不存在的器材。而在 AI 领域,“幻觉”显然是一种隐喻,大谈话模型根本看不到、感知不到任何器材。AI 并不是经历“幻觉”,而是在复制训练数据中的人类谈话模式,并不关心事例的正确性。

机器并不是试图传达它们相信或感知到的器材,它们的不正确性并不是因为误会或幻觉。正如我们所指出的,它们根本不是在试图传递信息,它们是在胡言乱语。

钻研职员认为,AI 模型没有信念、意图或理解力,它们的不正确性不是因为误会或幻觉,而是因为它们被设计用来创建看起来、听起来都正确的文本,没有任何“内在机制”来确保事例的正确性。

英国格拉斯哥大学哲学钻研职员谈“AI 幻觉”:用“胡言乱语”来形容更正确

图源 Pixabay

IT之家曾多次报道过“AI 幻觉”有关现象。例如最近的“谷歌搜索推荐用户往披萨里加胶水”,以及马斯克的 Grok“误认为”自己是 OpenAI 的产品等等。

剑桥词典(Cambridge Dictionary)去年宣布,2023 年的年度词汇为“hallucinate”(发生幻觉),原意为似乎看到、听到、感觉到或闻到“一些不存在的器材”,通常是指用户在不良健康或者服用药物状态下发生的幻觉。伴随着 AI 的崛起,hallucinate 延伸为 AI 发生幻觉,生成错误的信息。

给TA打赏
共{{data.count}}人
人已打赏
AI

青岛:力争到 2026 年全市算力总规模达 12EFLOPS,存储总量达 10EB

2024-6-12 9:48:29

AI

消息称 OpenAI 阿尔特曼和三星李在镕首次单独会晤,讨论分工 AI 芯片

2024-6-12 10:22:18

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索