如何应对 AI“一本正经的胡说八道”?研究人员希望它会承认“我不知道”

当前 AI 的训练数据几乎不包含“我不知道”这样的表述,因此它们天生不会谦逊。Cohen 和 Dobler 通过调整 AI 训练过程,使其在可能出错时,至少一部分情况下会选择回答“我不知道”,从而提高整体准确性。

《华尔街日报》当地时间 11 日发布文章,探讨了当前“AI 幻觉”的现象和潜在解法。该报记者 Ben Fritz 向多款全球最先进的 AI 聊天机器人询问“自己的配偶是谁”,得到的答案却令本人匪夷所思:一位自己并不认识的作家、一名来自爱荷华州的陌生女性,还有一名网球运动博主。

根据报道,尽管 AI 在解决复杂数学问题和模拟人类交流方面表现出色,但在基本事实上却常常出错。它们会捏造法律案件,混淆电影和书籍的情节,甚至“凭空”编造配偶。

如何应对 AI“一本正经的胡说八道”?研究人员希望它会承认“我不知道”

图源 Pixabay

AI在线注:上述错误往往被称作“幻觉”,因为 ChatGPT、Gemini 等 AI 即使在生成错误答案时也会表现得极其自信

曾在 IBM、微软实习的德国 Hasso Plattner 研究所博士生 Roi Cohen 表示,这是当前 AI 研究最热门的方向之一。

AI 的工作原理是预测答案中最可能出现的下一个单词。从本质上看,这一过程更像是一种高级猜测。AI 往往会以坚定的语气给出最可能正确的答案,而不会表现出任何不确定性,这就像学生在多项选择题考试中作答,或是社交场合中随口应对问题的人一样。

西班牙瓦伦西亚人工智能研究所的教授 José Hernández-Orallo 解释道,“AI 之所以会产生幻觉,根本原因在于,如果它什么都不猜,就完全不可能答对。”

为了解决这个问题,研究人员正尝试“检索增强生成”(retrieval augmented generation)技术,让 AI 在回答问题时先从互联网或文档库中查找最新信息,而不是完全依赖已有的训练数据。

在去年 12 月的 NeurIPS AI 研究会议上,Cohen 和同校博士生 Konstantin Dobler 提出了一个简单但富有新意的想法:让 AI 也学会承认“我不知道”。

报道指出,当前 AI 的训练数据几乎不包含“我不知道”这样的表述,因此它们天生不会谦逊。Cohen 和 Dobler 通过调整 AI 训练过程,使其在可能出错时,至少一部分情况下会选择回答“我不知道”,从而提高整体准确性。

不过,如何平衡这一策略仍是个难题。有时候,AI 说“我不知道”,但其实答案就在它的训练数据里。

即便如此,对于那些依赖 AI 提供精准信息的领域,适当的“谦虚”可能更有价值。“关键是让 AI 具备实用性,而不是一味追求智能。”Dobler 说道。

虽然 AI 变得越来越强大,但美国公众对其的信任感却在下降。皮尤研究中心数据显示,2023 年 52% 的美国人对 AI 感到担忧,而 2021 年这一比例仅为 37%。

相关资讯

​西湖大学研发 AI 文本检测模型,助力辨别人工智能创作

近日,西湖大学的研究团队成功研发出一种能够检测人工智能生成文本的新模型。 该团队的负责人张岳教授在接受采访时表示,这一模型采用无监督算法,可以有效判断一篇文章是否由 AI 创作,尤其在人工智能迅速发展的当下显得尤为重要。 张岳教授提到,随着科技的不断进步,AI 在创作领域的应用日益普及。

三大模型巨头比拼思考“幻觉”:DeepSeek 不敌 ChatGPT,Gemini 用词最少

近日,智利大学 CIAE 教育研究所的研究员 Roberto Araya 进行了 4 组对照实验:提供相同的提示词,让 Gemini 2.0 Flash、ChatGPT o3-mini、DeepSeek R1 进行推理分析,研究三个模型在应对幻觉问题上的性能对比。 其研究发现:ChatGPT 03-mini 在应对大模型幻觉问题上占有绝对优势,能够灵活切换不同的策略进行思考推理。 相比之下,DeepSeek R1 和 Gemini 2.0 Flash 虽然能够尝试使用策略,但表现了出对这些策略的抗拒,且推理过程存在错误或混乱。

调查:超72% 的企业选择 AI 工具时最看重易用性

根据最近的一项 CIO 报告,企业在人工智能(AI)领域的投资高达2.5亿美元,尽管在证明投资回报率(ROI)方面面临挑战。 商业领袖们正努力提高生产力,但新技术的集成往往需要重构现有应用、更新流程并激励员工学习,以适应现代商业环境。 QuickBlox 首席执行官 Nate MacLeitch 对136位高管进行了调查,以揭示 AI 采用的现实情况,探讨领导者的首要任务、主要担忧以及他们在2025年寻找可信工具的信息来源。