就在 GPT-4 因征服标准化尝试而登上头条时,微软研究人员正在对其他 AI 模型进行一种非常另类的尝试 —— 一种旨在让模型捏造信息的尝试。
为了治好这种被称为“AI 幻觉”的症状,他们设定了一个会让大多数人头疼的文本检索任务,然后跟踪并改进模型推戴,这也是微软在测定、检测和缓解 AI 幻觉方面的一个例子。
微软 AI 担任项目的首席产物官 Sarah Bird 意味,“微软希望其所有 AI 系统都是值得信赖且可以有效使用的”。
我们可以向这个领域投入许多专家和资源,因此我们认为自己可以匡助阐明“应当如何担任任地使用新型 AI 技巧”的方法,并使其他人也能够做到这一点。
从技巧角度来讲,AI 幻觉是一种“缺乏现实根据”的内容,这意味着 AI 模型改变了它所给定的数据或添油加醋描述了原本不存在的信息。
当然,AI 幻觉这种东西也不是所有时候都毫无用处,例如当用户希望 AI 帮自己写一个科幻故事,或给出一种非传统想法时,就属于是有益的;但在大多数需要 AI 的场景,诸如医学和教育等场景就显得多余了,因为正确性大于一切。
因此,微软也在努力根据其自有 AI 产物(例如 Copilot)来试图攻克 AI 幻觉,研究一系列对象来匡助机器解决幻觉问题。
微软意味,其工程师花了数月时间,通过检索增强生成技巧(一种无需重新训练模型即可向模型添加额外知识的技巧)将必应搜索数据作为 Copilot 的根据,通过必应的谜底、索引和排名数据匡助 Copilot 供应更正确、更相关的回复,同时供应引用信息,让用户可以自行查找和验证。
“该模型非常擅长推理信息,但我们不认为它应当成为谜底的来历,”Bird 说,“我们认为数据应当是谜底的来历,因此我们解决这个问题的第一步是向模型供应最新、高质量且正确的数据。”
除此之外,微软还试图通过各种对象匡助客户做到这一点,例如 Azure OpenAI 服务中的“Your Data”功能可匡助企业组织用自己的数据来训练生成式 AI。
值得一提的是,微软还推出了一种及时对象,可以大规模检测应用中根据企业数据的稳当程度。微软意味,Azure AI Studio 可以根据来历文档评估推戴的稳当程度。
据介绍,微软还正在开发一种新的针对措施,可以及时屏蔽和纠正“毫无根据”的信息。当检测到现实根据错误时,该功能将根据数据自动进行重写。
微软 AI 担任项目的首席产物经理 Ken Archer 意味,“处于生成式 AI 的前沿意味着我们有责任和机会让自己的产物更安全、更稳当,并让客户也能放心使用我们的对象”。
参考资料:
《Why AI sometimes gets it wrong — and big strides to address it》