防止聊天机器人“造谣”,谷歌 Deepmind、斯坦福大学研究人员推出 AI 事实核查工具

无论当下 AI 聊天机器人有多么强大,都会或多或少存在一大饱受诟病的行为 —— 以看上去令人信服的方式,向用户提供与事实不符的回答。简单来说,AI 有时会在回答中“满口跑火车”,甚至“造谣”。图源 Pixabay防止 AI 大模型出现这种行为并非易事,且是一项技术性的挑战。不过据外媒 Marktechpost 报道,谷歌 DeepMind 和斯坦福大学似乎找到了某种变通办法。研究人员推出了一种基于大语言模型的工具 —— 搜索增强事实评估器(IT之家注:原名为 Search-Augmented Factuality

无论当下 AI 聊天机器人有多么强大,都会或多或少存在一大饱受诟病的行为 —— 以看上去令人信服的方式,向用户提供与事实不符的回答。简单来说,AI 有时会在回答中“满口跑火车”,甚至“造谣”。

防止聊天机器人“造谣”,谷歌 Deepmind、斯坦福大学研究人员推出 AI 事实核查工具

图源 Pixabay

防止 AI 大模型出现这种行为并非易事,且是一项技术性的挑战。不过据外媒 Marktechpost 报道,谷歌 DeepMind 和斯坦福大学似乎找到了某种变通办法。

研究人员推出了一种基于大语言模型的工具 —— 搜索增强事实评估器(IT之家注:原名为 Search-Augmented Factuality Evaluator,简称 SAFE),可对聊天机器人生成的长回复进行事实核查。其研究结果与实验代码、数据集现已公布,点此查看

该系统可通过四个步骤对聊天机器人生成的回复进行分析、处理和评估,以验证准确性和真实性:将答案分割成单个待核查内容、对上述内容进行修正、再与谷歌搜索结果进行比较。随后,该系统还会检查各个事实与原始问题的相关性。

为评估其性能,研究人员创建了包含约 16000 个事实的数据集 LongFact,并在来自 Claude、Gemini、GPT、PaLM-2 的 13 个大语言模型上测试了该系统。结果显示,在对 100 个有争议的事实进行的重点分析中,SAFE 的判定在进一步审查下正确率达到 76% 。与此同时,该框架还具备经济性优势:成本比人工注释便宜 20 多倍。

防止聊天机器人“造谣”,谷歌 Deepmind、斯坦福大学研究人员推出 AI 事实核查工具

相关资讯

OpenAI 开源 SimpleQA 新基准,专治大模型“胡言乱语”

当地时间 30 日,OpenAI 宣布,为了衡量语言模型的准确性,将开源一个名为 SimpleQA 的新基准,可衡量语言模型回答简短的事实寻求(fact-seeking)问题的能力。 AI 领域中的一个开放性难题是如何训练模型生成事实正确的回答。 当前的语言模型有时会产生错误输出或未经证实的答案,这一问题被称为“幻觉”。

突发!Ilya Sutskever成立新公司SSI,安全超级智能是唯一目标与产品

自 5 月 15 日从 OpenAI 离职后,OpenAI 前首席科学家 Ilya Sutskever 官宣了自己的新动向。今日凌晨,Ilya 在社媒 X 上表示自己创立了一家新公司——「安全超级智能」(Safe SuperIntelligence,SSI)。该公司的目标和产品非常明确、单一:追求安全的超级智能,希望通过一支精干顶尖的小团队取得革命性的成果,进而实现这一目标。以下是 SSI 公司的公告:超级智能已经触手可及。构建安全超级智能(SSI)是我们这个时代最重要的技术难题。我们已经启动了世界上第一个专注于S

AIGCRank:2024年4月全球AI产品流量排行榜

AI在线 发布:2024年4月全球和国内AI网站流量排行榜。 榜单数据来自公开平台,AIGCRank 没有对数据做任何修改,排名公平公正,极具行业参考价值。你可放心转载、分享榜单,获取榜单原始数据请在公众号后台回复「AI」。