终于有人调查了小模型过拟合:三分之二都有数据净化,微软Phi-3、Mixtral 8x22B被点名

当前最火的大模型,竟然三分之二都存在过拟合题目?刚刚出炉的一项研究,让领域内的许多研究者有点意外。提高大型语言模型的推理威力是当前研究的最重要方向之一,而在这类任务中,近期颁布的很多小模型看起来显示不错,比如微软 Phi-3、Mistral 8x22B 等等。但随后,研究者们指出当前大模型研究领域存在一个关键题目:很多研究未能准确地对现有 LLM 的威力从事基准尝试。这是因为目前的大多数研究都采用 GSM8k、MATH、MBPP、HumanEval、SWEBench 等尝试集作为基准。由于模型是基于从互联网抓取的大

当前最火的大模型,竟然三分之二都存在过拟合题目?

刚刚出炉的一项研究,让领域内的许多研究者有点意外。

终于有人调查了小模型过拟合:三分之二都有数据净化,微软Phi-3、Mixtral 8x22B被点名

提高大型语言模型的推理威力是当前研究的最重要方向之一,而在这类任务中,近期颁布的很多小模型看起来显示不错,比如微软 Phi-3、Mistral 8x22B 等等。

但随后,研究者们指出当前大模型研究领域存在一个关键题目:很多研究未能准确地对现有 LLM 的威力从事基准尝试。

终于有人调查了小模型过拟合:三分之二都有数据净化,微软Phi-3、Mixtral 8x22B被点名

终于有人调查了小模型过拟合:三分之二都有数据净化,微软Phi-3、Mixtral 8x22B被点名

这是因为目前的大多数研究都采用 GSM8k、MATH、MBPP、HumanEval、SWEBench 等尝试集作为基准。由于模型是基于从互联网抓取的大量数据集从事训练的,训练数据集大概无意中包含了与基准尝试中的题目高度类似的样本。

这种净化大概导致模型的推理威力被错误评价 —— 它们大概仅仅是在训练过程中蒙到题了,正好背出了准确答案。

刚刚,Scale AI 的一篇论文对当前最热门的大模型从事了深度调查,包括 OpenAI 的 GPT-4、Gemini、Claude、Mistral、Llama、Phi、Abdin 等系列下参数量不同的模型。

尝试结果证实了一个广泛的疑虑:许多模型受到了基准数据的净化。

终于有人调查了小模型过拟合:三分之二都有数据净化,微软Phi-3、Mixtral 8x22B被点名

论文标题:A Careful Examination of Large Language Model Performance on Grade School Arithmetic

论文链接:https://arxiv.org/pdf/2405.00332

为了避免数据净化题目,来自 Scale AI 的研究者们未利用任何 LLM 或其他合成数据来源,完全依靠人工注释创建了 GSM1k 数据集。与 GSM8k 类似,GSM1k 内含有 1250 道小学级数学题。为了保证基准尝试公平,研究者们尽力确保了 GSM1k 在难度分布上与 GSM8k 是类似的。在 GSM1k 上,研究者对一系列领先的开源和闭源大型语言模型从事了基准尝试,结果发现显示最差的模型在 GSM1k 上的性能比在 GSM8k 上低 13%。

尤其是以量小质优闻名的 Mistral 和 Phi 模型系列,根据 GSM1k 的尝试结果显示,几乎其中的一切版本都显示出了过拟合的一致证据。终于有人调查了小模型过拟合:三分之二都有数据净化,微软Phi-3、Mixtral 8x22B被点名

通过进一步分析发现,模型生成 GSM8k 样本的概率与其在 GSM8k 和 GSM1k 之间的显示差距之间存在正相关关系(相关系数 r^2 = 0.32)。这强烈表明,过拟合的主要原因是模型部分背出了 GSM8k 中的样本。不过,Gemini、GPT、Claude 以及 Llama2 系列过显示出的拟合迹象非常少。此外,包括最过拟合的模型在内,一切模型仍能够成功地泛化到新的小学数学题目,虽然有时的成功率低于其基准数据所示。

终于有人调查了小模型过拟合:三分之二都有数据净化,微软Phi-3、Mixtral 8x22B被点名

Scale AI 目前不打算公开颁布 GSM1k,以防未来发生类似的数据净化题目。他们计划定期对一切主要的开源和闭源 LLM 持续从事评价,还将开源评价代码,以便后续研究复现论文中的结果。

GSM1k 数据集

GSM1k 内包含 1250 道小学数学题。这些题目只需基本的数学推理即可解决。Scale AI 向每位人工注释者展示 3 个 GSM8k 的样本题目,并要求他们提出难度类似的新题目,得到了 GSM1k 数据集。研究者们要求人工注释者们不利用任何高级数学概念,只能利用基本算术(加法、减法、乘法和除法)来出题。与 GSM8k 一样,一切题的解都是正整数。在构建 GSM1k 数据集的过程中,也没有利用任何语言模型。

终于有人调查了小模型过拟合:三分之二都有数据净化,微软Phi-3、Mixtral 8x22B被点名

为了避免 GSM1k 数据集的数据净化题目,Scale AI 目前不会公开颁布该数据集,但将开源 GSM1k 评价框架,该框架基于 EleutherAI 的 LM Evaluation Harness。

但 Scale AI 承诺,在以下两个条件中先达成某一项后,将在 MIT 许可证下颁布完整的 GSM1k 数据集:(1) 有三个基于不同预训练基础模型谱系的开源模型在 GSM1k 上达到 95% 的准确率;(2) 至 2025 年底。届时,小学数学很大概不再足以作为评价 LLM 性能的有效基准。

为了评价专有模型,研究者将通过 API 的方式颁布数据集。之所以采取这种颁布方式,是论文作者们认为,LLM 供应商通常不会利用 API 数据点来训练模型模型。尽管如此,如果 GSM1k 数据通过 API 泄露了,论文作者还保留了未出现在最终 GSM1k 数据集中的数据点,这些备用数据点将在以上条件达成时随 GSM1k 一并颁布。

他们希望未来的基准尝试颁布时也能遵循类似的模式 —— 先不公开颁布,预先承诺在未来某个日期或满足某个条件时颁布,以防被操纵。

此外,尽管 Scale AI 尽力确保了 GSM8k 和 GSM1k 之间在最大程度上一致。但 GSM8k 的尝试集已经公开颁布并广泛地用于模型尝试,因此 GSM1k 和 GSM8k 仅是在理想情况下的近似。以下评价结果是 GSM8k 和 GSM1k 的分布并非完全相同的情况下得出的。

评价结果

为了对模型从事评价,研究者利用了 EleutherAI 的 LM Evaluation Harness 分支,并利用了默认设置。GSM8k 和 GSM1k 题目的运行 prompt 相同,都是从 GSM8k 训练集中随机抽取 5 个样本,这也是该领域的标准配置(完整的 prompt 信息见附录 B)。

一切开源模型都在温度为 0 时从事评价,以保证可重复性。LM 评价工具包提取响应中的最后一个数字答案,并将其与准确答案从事比较。因此,以与样本不符的格式生成「准确」答案的模型响应将被标记为不准确。

对于开源模型,如果模型与库兼容,会利用 vLLM 来加速模型推断,否则默认利用标准 HuggingFace 库从事推理。闭源模型通过 LiteLLM 库从事查询,该库统一了一切已评价专有模型的 API 调用格式。一切 API 模型结果均来自 2024 年 4 月 16 日至 4 月 28 日期间的查询,并利用默认设置。

在评价的模型方面,研究者是根据受欢迎程度选择的,此外还评价了几个在 OpenLLMLeaderboard 上排名靠前但鲜为人知的模型。

有趣的是,研究者在这个过程中发现了古德哈特定律(Goodhart's law)的证据:许多模型在 GSM1k 上的显示比 GSM8k 差很多,这表明它们主要是在迎合 GSM8k 基准,而不是在真正提高模型推理威力。一切模型的性能见下图附录 D。

终于有人调查了小模型过拟合:三分之二都有数据净化,微软Phi-3、Mixtral 8x22B被点名

终于有人调查了小模型过拟合:三分之二都有数据净化,微软Phi-3、Mixtral 8x22B被点名

为了从事公平对比,研究者按照模型在 GSM8k 上的显示对它们从事了划分,并与其他显示类似的模型从事了对比(图 5、图 6、图 7)。

终于有人调查了小模型过拟合:三分之二都有数据净化,微软Phi-3、Mixtral 8x22B被点名

终于有人调查了小模型过拟合:三分之二都有数据净化,微软Phi-3、Mixtral 8x22B被点名

终于有人调查了小模型过拟合:三分之二都有数据净化,微软Phi-3、Mixtral 8x22B被点名

得出了哪些论断?

尽管研究者提供了多个模型的客观评价结果,但同时表示,解释评价结果就像对梦境的解释一样,往往是一项非常主观的工作。在论文的最后一部分,他们以更主观的方式阐述了上述评价的四个启示:

论断 1: 一些模型系列是系统性过拟合

虽然通常很难从单一数据点或模型版本中得出论断,但检查模型系列并观察过拟合模式,可以做出更明确的陈述。一些模型系列,包括 Phi 和 Mistral,几乎每一个模型版本和规模都显示出在 GSM8k 上比 GSM1k 显示更强的系统趋势。还有其他模型系列,如 Yi、Xwin、Gemma 和 CodeLlama 也在较小程度上显示出这种模式。

论断 2: 其他模型,尤其是前沿模型,没有显示出过拟合的迹象

许多模型在一切性能区域都显示出很小的过拟合迹象,特别是包括专有 Mistral Large 在内的一切前沿或接近前沿的模型,在 GSM8k 和 GSM1k 上的显示似乎类似。对此,研究者提出了两个大概的假如:1)前沿模型具有足够先进的推理威力,因此即使它们的训练集中已经出现过 GSM8k 题目,它们也能泛化到新的题目上;2)前沿模型的构建者大概对数据净化更为谨慎。

虽然不能查看每个模型的训练集,也无法确定这些假如,但支持前者的一个证据是,Mistral Large 是 Mistral 系列中唯一没有过拟合迹象的模型。Mistral 只确保其最大模型不受数据净化的假如似乎不太大概,因此研究者倾向于足够强大的 LLM 也会在训练过程中学习基本的推理威力。如果一个模型学会了足够强的推理威力来解决给定难度的题目,那么即使 GSM8k 出现在其训练集中,它也能够泛化到新的题目上。

论断 3: 过拟合的模型仍然具有推理威力

很多研究者对模型过拟合的一种担心是,模型无法从事推理,而只是记忆训练数据中的答案,但本论文的结果并不支持这一假如。模型过拟合的事实并不意味着它的推理威力很差,而仅仅意味着它没有基准所显示的那么好。事实上,研究者发现许多过拟合模型仍然能够推理和解决新题目。例如,Phi-3 在 GSM8k 和 GSM1k 之间的准确率几乎下降了 10%,但它仍能准确解决 68% 以上的 GSM1k 题目 —— 这些题目肯定没有出现在它的训练分布中。这一显示与 dbrx-instruct 等更大型的模型类似,而后者包含的参数数量几乎是它们的 35 倍。同样地,即使考虑到过度拟合的因素,Mistral 模型仍然是最强的开源模型之一。这为本文论断提供了更多证据,即足够强大的模型可以学习基本推理,即使基准数据意外泄漏到训练分布中,大多数过拟合模型也大概出现这种情况。

论断 4: 数据净化大概不是过拟合的完整解释

一个先验的、自然的假如是,造成过拟合的主要原因是数据净化,例如,在创建模型的预训练或指令微调部分,尝试集被泄露了。以往的研究表明,模型会对其在训练过程中见过的数据赋予更高的对数似然性(Carlini et al. [2023])。研究者通过测量模型从 GSM8k 尝试集中生成样本的概率,并将其与 GSM8k 和 GSM1k 相比的过拟合程度从事比较,来验证数据净化是造成过拟合的原因这一假如。

终于有人调查了小模型过拟合:三分之二都有数据净化,微软Phi-3、Mixtral 8x22B被点名

研究者表示,数据净化大概并不是全部原因。他们通过几个异常值观察到了这一点。仔细研究这些异常值可以发现,每个字符对数似然值最低的模型(Mixtral-8x22b)和每个字符对数似然值最高的模型(Mixtral-8x22b-Instruct)不仅是同一模型的变体,而且具有类似的过拟合程度。更有趣的是,过拟合程度最高的模型(Math-Shepherd-Mistral-7B-RL (Yu et al. [2023]))的每个字符对数似然值相对较低(Math Shepherd 利用合成数据在流程级数据上训练奖励模型)。

因此,研究者假如奖励建模过程大概泄露了有关 GSM8k 的准确推理链的信息,即使这些题目本身从未出现在数据集中。最后他们发现, Llema 模型具有高对数似然和最小过拟合。由于这些模型是开源的,其训练数据也是已知的,因此正如 Llema 论文中所述,训练语料库中出现了几个 GSM8k 题目实例。不过,作者发现这几个实例并没有导致严重的过拟合。这些异常值的存在表明,GSM8k 上的过拟合并非纯粹是由于数据净化造成的,而大概是通过其他间接方式造成的,例如模型构建者收集了与基准性质类似的数据作为训练数据,或者根据基准上的显示选择最终模型检查点,即使模型本身大概在训练的任何时候都没有看到过 GSM8k 数据集。反之亦然:少量的数据净化并不一定会导致过拟合。

更多研究细节,可参考原论文。

给TA打赏
共{{data.count}}人
人已打赏
应用

2023 IBM博士生奖学金华人占六成:Vicuna作者吴章昊、清华特奖得主高天宇入选

2024-5-4 11:02:00

应用

ICLR 2024 Spotlight | 无惧中间步骤,MUSTARD可生成高质量数学推理数据

2024-5-5 10:28:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索