排行榜一出,高下立见。
人工智能发展进步神速,但题目频出。OpenAI 新出的 GPT 视觉 API 前脚让人感叹效果极好,后脚又因幻觉题目令人不禁吐槽。
幻觉一直是大模型的致命缺陷。由于数据集庞杂,其中难免会有过时、错误的信息,导致输入质量面临着严峻的考验。过多重复的信息还会使大模型形成偏见,这也是幻觉的一种。但是幻觉并非无解命题。开发过程中对数据集慎重应用、严格过滤,构建高质量数据集,以及优化模型结构、训练方式都能在一定程度上缓解幻觉题目。
流行的大模型有那么多,它们对于幻觉的缓解效果如何?这里有个排行榜明确地对比了它们的差距。
该排行榜由专注于 AI 的 Vectara 平台发布。排行榜革新于 2023 年 11 月 1 日,Vectara 表示后续会随着模型的革新继续跟进幻觉评价。
项目地点:https://github.com/vectara/hallucination-leaderboard
为了肯定这个排行榜,Vectara 应用各种开源数据集对择要模型进行了事例一致性研究,并训练了一个模型来检测 LLM 输入中的幻觉。他们应用了一个媲美 SOTA 模型,然后通过公共 API 向上述每一个 LLM 输送了 1000 篇简短文档,并要求它们仅应用文档中呈现的事例对每篇文档进行归纳。在这 1000 篇文档中,只有 831 篇文档被每一个模型归纳,其余文档由于实质限制被至少一个模型拒绝回覆。利用这 831 份文件,Vectara 计算了每一个模型的总体准确率和幻觉率。每一个模型拒绝赞同 prompt 的比率详见 「Answer Rate」一栏。发送给模型的实质都不包含非法或 不安全实质,但其中的触发词足以触发某些实质过滤器。这些文件主要来自 CNN / 每日邮报语料库。
需要注意的是,Vectara 评价的是择要准确性,而不是整体事例准确性。这样可以比较模型对所提供信息的赞同。换句话说,评价的是输入择要是否与源文件「事例一致」。由于不知道每一个 LLM 是在什么数据上训练的,因此对于任何特别题目来说,肯定幻觉都是不可能的。此外,要建立一个能够在没有参照源的情况下肯定回覆是否是幻觉的模型,就需要解决幻觉题目,而且需要训练一个与被评价的 LLM 一样大或更大的模型。因此,Vectara 选择在归纳任务中查看幻觉率,因为这样的类比可以很好地肯定模型整体真实性。
检测幻觉模型地点:https://huggingface.co/vectara/hallucination_evaluation_model
此外,LLM 越来越多地用于 RAG(Retrieval Augmented Generation,检索增强生成)管道来回覆用户的查询,例如 Bing Chat 和google聊天集成。在 RAG 系统中,模型被部署为搜索结果的汇总器,因此该排行榜也是衡量模型在 RAG 系统中应用时准确性的良好指标。
由于 GPT-4 一贯的优秀表现,它的幻觉率最低似乎是意料之中的。但是有网友表示,GPT-3.5 与 GPT-4 并没有非常大的差距是令他较为惊讶的。
LLaMA 2 紧追 GPT-4 与 GPT-3.5 之后,有着较好的表现。但google大模型的表现实在不尽人意。有网友表示,google BARD 常用「我还在训练中」来搪塞它的错误答案。
有了这样的排行榜,能够让我们对于不同模型之间的优劣有更加直观的判断。前几天,OpenAI 推出了 GPT-4 Turbo,这不,立刻有网友提议将其也革新在排行榜中。
下次的排行榜会是怎样的,有没有大幅变动,我们拭目以待。
参照链接:
Finally, we have a hallucination leaderboard! 😍😍
Key Takeaways
📍 Not surprisingly, GPT-4 is the lowest.
📍 Open source LLama 2 70 is pretty competitive!
📍 Google's models are the lowest. Again, this is not surprising given that the #1 reason Bard is not usable is its… pic.twitter.com/9234lc3h2B
— Bindu Reddy (@bindureddy) November 13, 2023
How much does GPT-4 hallucinate compared to Claude or Mistral? Now, with Vectara’s LLM Leaderboard, you can have a data-backed answer at a glance 👀
Check out how your favorite models performed on our Hallucination Evaluation Model ⬇️
🔗 https://t.co/cdbDJXS9eX pic.twitter.com/IHBCNjdlNQ
— Vectara (@vectara) November 7, 2023