AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实行室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]
本文第一作者和通讯作者均来自上海算法创新研究院。其中,通讯作者李志宇博士毕业于中国人民大学计算机专业,并曾在阿里巴巴、小红书等互联网公司从事算法落地与研究工作,曾参与了包括千亿级商品知识图谱、用户图谱和舆情图谱的研发工作,累计发表论文四十余篇。李志宇当前在上海算法创新研究院大模型部门(由熊飞宇博士带领)负责整体的技术研发工作。研究院主页:https://www.iaar.ac.cn/
大语言模型(LLM)的迅速发展,引发了关于如何评价其公平性和可靠性的热议。
尽管现有的评价框架如 OpenCompass、LM Eval Harness 和 UltraEval 以及各种 Benchmark 推动了行业进步,但专注于这些评价框架核心组件可信度或可靠性度量的团队却为数不多。
近日,上海算法创新研究院和中国人民大学的研究团队发布了一篇名为《xFinder: Robust and Pinpoint Answer Extraction for Large Language Models》的论文。这篇论文深入分析了LLM评价框架的整体流程,重点评价了谜底抽取器组件在大模型评价中的可靠性和一致性。
论文地址:
https://arxiv.org/abs/2405.11874
Github链接:
https://github.com/IAAR-Shanghai/xFinder
Huggingface链接:
https://huggingface.co/collections/IAAR-Shanghai/xfinder-664b7b21e94e9a93f25a8412
当前的评价框架主要依赖正则表达式(RegEx)来抽取谜底,但这种格式存在明显缺陷。人工复核结果显示,其最佳抽取正确率仅为74.38%,评价结果极不可靠。
此外,RegEx格式容易被有意或无意地拟合,增加了「作弊」的可能性,从而影响评价结果的可靠性和一致性。下图展示了LLM评价框架中RegEx组件抽取错误的情况。
为了有效解决这一问题,上海算法创新研究院和中国人民大学的研究团队开发了一个名为 xFinder 的新模型,用于更准确地抽取症结谜底。
xFinder 具有以下优势:
(1)不要求特定格式的谜底输出,具备较强的谜底抽取鲁棒性,抽取准确率高达95.18%,显著优于目前最佳LLM评价框架中的RegEx格式。
(2)支持多样化题型,能够将字母选择题自动转换为问答题,并支持分别题型的混排评价,从而降低尝试者拟合题型的可能性。
格式介绍
xFinder的实现过程主要包括LLM呼应内容的生成、KAF数据集的标注和xFinder的训练。为了实现 xFinder 模型的有效训练,团队构建了一个专门的数据集——症结谜底查找(KAF)数据集。该数据集包含 26,900 个训练样本、4,961 个尝试样本和 4,482 个泛化样本,涵盖多种评价恣意。
大语言模型呼应生成
首先,研究团队从现有的主要评价基准和报告中挑选了多个典型的评价恣意数据集,这些恣意被分类为四种类型:字母选项恣意、短文本选项恣意、分类标签恣意和数学恣意。
接着,团队使用分别系列的 LLM(如 Qwen、InternLM、ChatGLM 等)生成这些恣意的数据对。通过多种 LLM,团队生成了丰富多样的数据对,为 xFinder 模型的训练提供了充分的数据支持。
自动标注与人工复核
团队使用了一种策略,从 LLM 呼应中提炼症结谜底并将其用作标签,以构建高质量的 KAF 数据集。为提高训练集的标注效率,他们采用了半自动化流程,通过分别提示使用 GPT-4 生成了两组标注,并利用自一致性策略筛选出标注不一致的项和所有数学问题,提交给人工复查。为了确保尝试集和泛化集的有效性和可靠性,所有标签都经过两轮手动注释。
训练 xFinder
为了增强 KAF 数据集的多样性和模型的泛化能力,研究团队采用了两种数据增强策略:
(1)模拟 LLM 呼应:对 KAF 训练集中 50% 的字母选项问题进行修改,增加或删除一到两个选项,以模拟 LLM 的多样化呼应。
(2)丰富提示形式:提炼包含症结谜底句子的 LLM 呼应的 10%,替换其中的提示部分,例如将「The final answer is A」替换为「Based on the context of the question, A is the most likely answer」。
此外,团队使用 XTuner 工具和 QLoRA 格式,对 Llama 系列、Qwen 系列和 Gemma 系列等基座模型进行微调,最终获得 xFinder。
实行结果
该团队进行了广泛的实行,评价xFinder在分别恣意上的表现,并与现有的RegEx格式进行了对比。
KAF 尝试集上的结果
在 KAF 尝试集上,xFinder-qwen1505 的平均提炼准确率达到了 96.88%,显著高于最佳评价框架中的 RegEx 格式的 74.38%。
具体来看,xFinder-qwen1505 在字母选项恣意中的提炼准确率为 97.35%;在短文本选项恣意中为 96.83%;在分类标签恣意中为98.05%;在数学选项恣意中为 92.76%。这些结果表明,xFinder 在各类恣意中均表现出色,显著提升了评价的准确性和可靠性。
KAF 泛化集上的结果
在全新的 KAF 泛化集上(该泛化集使用了与 KAF 数据集中的训练集和尝试集分别的 LLM 和尝试恣意生成的样例构造的),xFinder-qwen1505 展现了卓越的性能,平均提炼准确率达到了 93.42%。
实行结果表明,xFinder 的表现不仅优于其他基于 RegEx 的评价框架,甚至显著优于 GPT-4,充分展示了其高鲁棒性和泛化能力。
在现实世界场景中的评价
研究团队使用 xFinder 和传统评价框架对 10 种 LLM 进行了综合评价。评价恣意涵盖了 CommonsenseQA、BoolQ 和 GSM8K 等。通过对 10 种分别的 LLM 应用五种谜底提炼方案,进行了一系列对比实行。
概括起来,实行结果主要揭示了三个症结发现:
(1)同一模型在分别框架下的排名常常出现较大差异,难以准确反映模型的真实能力,显示出一致性较低。
(2)分别的 xFinder 在这些实行中显示出了高度的一致性,并且在提炼谜底的准确率上也超越了其他评测框架,表明 xFinder 是一种更加可靠的评测格式。
(3)与传统的字母选项设置相比,直接使用选项文本能显著提升排名的一致性,反映了字母选项设置的不稳定性。更多的细节和实行结果已在附录中展示,这些内容进一步证实了上述发现的有效性。
结语
总的来说,xFinder通过优化症结谜底提炼模块,提高了LLM评价的准确性和可靠性。实行结果表明,xFinder在多种恣意上均表现出色,具备较高的鲁棒性和泛化能力。未来,该研究团队将继续优化xFinder,并研究其他评价症结问题,为LLM性能的可靠评价提供坚实基础。