大模型Scaling Law同样适用于上游工作机能?斯坦福、谷歌最新研究揭秘

大模型的成功很大程度上要归因于 Scaling Law 的存在,这一定律量化了模型机能与训练数据规模、模型架构等设计要素之间的关系,为模型开发、资源分配和选择合适的训练数据提供了宝贵的指导。以往的大量研究集中于上游复杂度或穿插熵受益的 Scaling law(即在预训练数据上举行评估),但在实际应用中,模型通常要经历一个迁徙学习的过程:首先在无监督数据上举行预训练,然后针对特定的上游工作(如编码或翻译)举行微调。那么,Scaling Law 能不能用于展望上游工作机能?这个关键问题很大程度上仍未得到解答。在最近的一

大模型的成功很大程度上要归因于 Scaling Law 的存在,这一定律量化了模型机能与训练数据规模、模型架构等设计要素之间的关系,为模型开发、资源分配和选择合适的训练数据提供了宝贵的指导。

以往的大量研究集中于上游复杂度或穿插熵受益的 Scaling law(即在预训练数据上举行评估),但在实际应用中,模型通常要经历一个迁徙学习的过程:首先在无监督数据上举行预训练,然后针对特定的上游工作(如编码或翻译)举行微调。

那么,Scaling Law 能不能用于展望上游工作机能?这个关键问题很大程度上仍未得到解答。在最近的一项工作中,斯坦福大学和谷歌的研究者探索了迁徙学习的 Scaling Law。

大模型Scaling Law同样适用于上游工作机能?斯坦福、谷歌最新研究揭秘

论文标题:Scaling Laws for Downstream Task Performance of Large Language Models

论文链接:https://arxiv.org/pdf/2402.04177.pdf

工作机能指的是准确率和 BLEU 得分等衡量工作相关的目标,这些目标不同于穿插熵等下一个 token 展望目标。研究者聚焦于机器翻译工作,具体讨论了预训练数据集巨细与工作微调后上游工作机能之间的关系,发现除了微调数据巨细和机能目标的选择外,这种关系从根本上取决于预训练数据和上游工作之间的一致性。虽然迁徙学习方面的诸多工作在不同情况下也有类似的观察结果,但本文为 LLM 的上游机能提供了新的见解和具体的 Scaling Law。

研究者在多语言无监督数据集上对 LLM 举行了预训练,然后在多个机器翻译工作中对其举行微调。在整个实验中,研究者改变了预训练数据的类型(以控制与上游工作的分布一致程度)和微调数据的规模。

本文研究了两个目标:上游 BLEU 得分和上游穿插熵。

实验发现,在分布完全一致的情况下,随着预训练的增多,BLEU 和上游穿插熵都会枯燥地提高。在这些情况下,实验证明 BLEU 得分可以用以下对数定律很好地展望:

大模型Scaling Law同样适用于上游工作机能?斯坦福、谷歌最新研究揭秘

其中 D_p 表示预训练数据的巨细,A、α、β 是要拟合的系数。随着预训练数据的增多,研究者进一步提出了上游穿插熵的幂律

大模型Scaling Law同样适用于上游工作机能?斯坦福、谷歌最新研究揭秘

这与「上游穿插熵随预训练数据集巨细变化而变化」的类似规律以及「上游穿插熵随微调数据集巨细变化而变化的类似规律」如出一辙。

然而,当分布不够一致且微调数据量相对较小时,在某些情况下,BLEU 得分会表现出不明确的非枯燥行为,而上游的穿插熵仍会按照幂律枯燥地提高。这一观察结果表明,如果将穿插熵作为 BLEU 得分等工作相关目标的替代目标来决定预训练数据与上游工作的「相关性」或上游目标机能所需的预训练数据巨细,在实践中可能会导致严重的误判。

最后的实证研究表明,当微调(迁徙)数据集已经足够大时,预训练对 BLEU 得分几乎没有改善。

用于迁徙学习的 Scaling Law

适用于 BLEU 得分的 Scaling Law

与按照幂律缩放行为的穿插熵和困惑度不同,研究者发现 BLEU 得分更接近于对数律(log-law),这从图 1、图 2 和图 3 中显而易见。因此,研究者提出以下公式作为预训练数据集巨细 D_p 的函数的 BLEU 得分的 Scaling Law:

其中 A、α 和 β 为拟合系数。研究者注意到,这些系数取决于预训练数据集与上游目标工作(从语言 1 翻译到语言 2)的对齐程度,以及微调(翻译)数据集的规模。通过对多个翻译工作和多语言预训练模型的大量实验,研究者证明 (1) 中的定律确实很好地描述了 BLEU 得分的缩放,而且展望误差较小。

穿插熵受益总是一个好的目标吗?

研究者还将上游穿插熵受益和 BLEU 得分从实证角度举行了比较,因为先前的工作假设上游或上游穿插熵受益是模型上游工作机能的一个好目标。按照对预训练数据集规模的函数中的上游穿插熵受益的缩放行为的深入理解,研究者展示了同样的 Scaling Law 也可以描述上游穿插熵受益,如下:

大模型Scaling Law同样适用于上游工作机能?斯坦福、谷歌最新研究揭秘

其中 E、A 和 α 是需要优化的系数。在整篇论文中,研究者将 BLEU 得分和穿插熵放在一起报告,以便举行直接比较,发现在一些情况下,这两个目标的相关性并不好。这支持了 Ghorbani et al. (2021) 的一些发现,即 BLEU 得分和穿插熵之间不一致,但也表明 Gordon et al. (2021) 所提出的(两个目标之间的)指数关系并不总是成立的。更具体地说,本文的实证结果表明,随着预训练数据集规模的增多,穿插熵受益总是枯燥递减(在适当的学习率下),而当预训练数据与工作不够一致时,BLEU 得分可能会呈现非枯燥趋势。

例如,在图 3(右上)中,增多 en-MC4、de-MC4 或 ro-MC4 预训练数据集的巨细有时会降低 WMT-15 英法(en-fr)翻译工作的 BLEU 得分。尽管对于较小的预训练数据集来说,它们最初可能按照(1)中的规律,但对于这些数据集和工作来说,数据越大,Scaling Law 就会打破。总体而言,与其他包含一定量法语的预训练数据集相比,BLEU 得分从未达到一个很好的值,这表明不包含法语的预训练数据集与这一特定翻译工作的匹配度不够。但是,如果只看图 3(右下)中的穿插熵受益,就会得出结论:所有预训练数据集都会给模型带来明显的改进,它们都值得添加到预训练数据中,而这会是一个错误的决定。

McKenzie et al. (2023) 对工作相关目标与穿插熵之间的不匹配举行了 remotely related 观察,研究了上游工作机能如何随着模型的增长而变化,结果表明 LLM 可能会随着模型规模的增多而显示出更差的工作机能,但与本文研究结果类似的是,枯燥递减的穿插熵受益并未反映出这一点。

迁徙学习中的 Scaling Law 何时失效?

虽然穿插熵受益总是按照一个枯燥递减的趋势,这可以通过公式 (2) 中的 Scaling Law 来获得。但当增多预训练数据集巨细时,我们并不总能看到 BLEU 得分的枯燥增多(见图 2(上,中)和图 3(上,右))。研究者观察到,这种情况只在预训练数据集与翻译工作对齐度不足时发生 —— 这导致与在其他数据集上预训练的模型相比,这类模型总体上 BLEU 得分较低。对于微调后导致高 BLEU 得分的预训练模型,总能看到 BLEU 得分枯燥增多,并且可以很好地用公式 (1) 中的 Scaling Law 来描述。因此,Scaling Law 能否拟合实证 BLEU 得分,可以作为评估预训练数据对上游(翻译)工作价值的一个好的初步检查。

预训练数据评估指南

结合上述对 BLEU 得分缩放表现的研究结果,研究者给出了两条指南,用于评估预训练数据集对目标上游工作的价值:

1、给定一个预训练数据集,在给定的计算和时间限制条件下尽可能长时间地举行预训练。定期选择预训练检查点,对其举行微调,并记录上游机能目标(根据第 3.3 节的讨论,研究者推荐使用 BLEU 得分而非穿插熵)。

2、由于 (1) 中的定律有三个系数需要拟合,因此一旦有了三对(看到的预训练 token 数、BLEU 得分),就会尝试找到最佳系数。

如果 BLEU 得分具有非枯燥表现,就无法拟合 Scaling Law。由于非枯燥行为可能是不对齐的迹象(根据第 3.3 节中的讨论),研究者建议检查可用的最佳微调检查点的 BLEU 得分,并将其与直接在上游工作中训练的非预训练模型的机能举行比较。

如果 Scaling Law 拟合得很好,就可以在增多预训练数据集规模(或预训练更多步骤)时对 BLEU 分数举行初步展望。

如果对展望的 BLEU 得分不满意,就会得出结论:不值得对该数据集举行预训练。如果展望的 BLEU 分数足够高,那么就继续预训练,直到达到目标 BLEU 得分。

如果 Scaling Law 在任何一点上被打破,就会得出结论:预训练数据集与上游工作的匹配程度不够,进一步预训练可能不会有任何益处。

实验结果

在图 1 中,研究者分析了在不同比例的数据集上预训练的模型,这些数据集包括(左)50% 英文 – MC4 + 50% 德文 – MC4 的混合体、(中)50% 英文 – MC4 + 50% 法文 – MC4 的混合体以及(右)50% 英文 – MC4 + 50% 罗马尼亚文 – MC4 的混合体。然后,这些模型分别在(左)英 – 德翻译数据集、(中)英 – 法翻译数据集和(右)英 – 罗翻译数据集的不同部分上举行微调。

大模型Scaling Law同样适用于上游工作机能?斯坦福、谷歌最新研究揭秘

第一行记录了 BLEU 得分,第二行记录了上游穿插熵受益。点线、虚线和实线分别对应于公式(1)和(2)中不同微调数据集巨细 D_f 的 Scaling Law。黑色线条对应「未经预训练」的模型(随机初始化),这些模型直接在微调数据集的不同部分上举行训练。

在所有情况下,Scaling Law 都很好地适应了实证结果(图中标记)。正如预期的那样,随着微调数据集巨细的增多(例如,按点线 – 虚线 – 实线的顺序),BLEU 得分增多,穿插熵受益平滑且枯燥地减少。同样,随着预训练数据集巨细 D_p 的增多(沿 x 轴),可以看到两个目标都有所改善。

可以注意到,增多预训练数据集巨细对于较小的微调数据集更有效。当微调数据集足够大时(例如,实线),不论预训练数据集巨细如何,BLEU 得分或多或少保持恒定。实际上,当微调数据集足够大时,与未经预训练的模型(黑线)相比,可以看到预训练几乎没有改善。

这意味着,对于这些工作,当微调数据集足够大时,没有必要举行模型预训练。幸运的是,我们可以使用 Scaling Law 正确展望是否会出现这种情况,需要做的就是在预训练数据集的一小部分上以合理的计算成本预训练模型,以优化 Scaling Law 的系数,然后按照论文第 3.4 节提供的指南。

在图 2 中,研究者将所有图中的预训练数据集更改为 100% 英文 – MC4。直观上,他们预期这个数据集与图 1 中的「多语言对」比起来,与翻译工作的对齐度较低,因为它不包括翻译工作中的一种语言。的确,我们通常看到相同微调数据集巨细的情况下,BLEU 得分更低,穿插熵受益更高。

大模型Scaling Law同样适用于上游工作机能?斯坦福、谷歌最新研究揭秘

大部分从图 1 中得出的结论也适用于图 2 中的结果。例如,当微调数据集足够大时,预训练数据的重要性较小。一个显著的不同在于英 – 法翻译工作(中间一栏)的 BLEU 得分。研究者发现,对于 D_f = 42M 和 D_f = 210M,一旦预训练数据集巨细超过一个阈值,BLEU 得分的 Scaling Law 实际上会断裂,而穿插熵受益则如预期那样缩放。这是违反直觉的,因为对于更大的预训练数据集,BLEU 得分有时会下降。注意,在英 – 德或英 – 罗翻译工作中,这种 Scaling Law 的断裂并未发生,因为 Scaling Law 很好地适应了预训练数据,这些工作的展望误差最多为 0.025(δ = 0.1))。

为了更好地调查这一点,在图 3 中,研究者更仔细地研究了由于语言选择而对齐度较低的一些预训练数据集:

大模型Scaling Law同样适用于上游工作机能?斯坦福、谷歌最新研究揭秘

在图 3(左侧),研究者为英 – 德翻译工作提供了 Scaling Law,其中预训练数据集包括 100% 英文 – MC4(与图 2-(左侧)相同)、50% 英文 – MC4 和 50% 德文 – MC4(与图 1-(左侧)相同)、100% 德文 – MC4、100% 法文 – MC4(对齐度较低)和 100% 罗马尼亚文 – MC4(对齐度较低)。注意,最后两个预训练数据集预期与翻译工作的对齐度最低,因为翻译对不包括这些语言。可以看到,尽管如此,Scaling Law 始终适用于 BLEU 得分和穿插熵受益。

然而,对于英法翻译工作,情况并非总是如此。在图 3-(右侧),研究者为英法翻译工作提供了 Scaling Law,其中预训练数据集是英文 – MC4 和法文 – MC4 数据集的不同混合。他们还包括了「对齐度较低」的预训练数据集,如 100% 德文 – MC4 和 100% 罗马尼亚文 – MC4。令人惊讶的是,可以看到对于仅英文(100% 英文 – MC4)、仅德文(100% 德文 – MC4)和仅罗马尼亚文(100% 罗马尼亚文 – MC4)的预训练数据集,BLEU 得分的 Scaling Law 在某一点后断裂,而穿插熵受益总是按照公式 (2) 中的 Scaling Law。有趣的是,研究者没有在仅法文(100% 法文 – MC4)的预训练数据集中观察到 BLEU 得分缩放的断裂 —— 这暗示在预训练中不包括法文数据会导致英法翻译工作中的缩放机能下降,但不包括英文则没有这种影响。

研究者还注意到,在这三个缩放断裂的预训练数据集中,BLEU 得分最低。这表明,只要预训练数据集有望带来良好的机能,公式 (1) 中的 Scaling Law 对于 BLEU 得分就适用得很好。然而,当 Scaling Law 适用得不好时,研究者可能会怀疑 BLEU 得分总体上较低。因此,是否能够适应 BLEU 得分的 Scaling Law 似乎能很好地指示预训练数据与特定翻译工作之间的对齐程度。

请参阅原始论文以获取更多详细信息。

给TA打赏
共{{data.count}}人
人已打赏
工程

用集中模型生成网络参数,LeCun点赞尤洋团队新研讨

2024-2-25 19:56:00

工程

MATRIX:社会仿照推动大模型价值自对齐,比GPT4更「体贴」

2024-2-27 14:47:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索