小模型指导大模型!田渊栋等爆锤蒸馏:新方法更高效、更透明、更可控

「下一个token预测」(next token prediction,NTP)是大语言模型(LLMs)不断取得突破的核心技术。 但这种依赖tokenization的方法,导致LLM「严重偏科」。 比如,Karpathy发现一个表情包相当于53个token!关注AI的可能也知道GPT-4o不会数字母,不知道Strawberray中有几个字母「r」。

「下一个token预测」(next token prediction,NTP)是大语言模型(LLMs)不断取得突破的核心技术。

但这种依赖tokenization的方法,导致LLM「严重偏科」。

比如,Karpathy发现一个表情包相当于53个token!

关注AI的可能也知道GPT-4o不会数字母,不知道Strawberray中有几个字母「r」。

为了解决此类问题,最近的研究探讨了超越token级信号的方法,利用更丰富的信息来训练模型。

比如说,一次性预测多个token;在下一个token预测之前增强输入,加入丰富的信号;或用连续的潜在表示替代离散的语言标记,提高推理效率。

Meta的下一代系统「大概念模型」,彻底超越token级别语言建模,直接在语句级别上语言建模,摆脱人类语言类型对模型性能的制约。

这次,受到近期研究发现的启发,来自Meta的研究人员认为稀疏自编码器(Sparse Autoencoders,SAEs)可以捕捉高层次的语义概念,在LLM中有效地隔离出有意义的潜在特征。

由于SAEs是通过稀疏性约束训练,重构模型的隐状态,它促使模型集中关注一组紧凑的概念维度。

这可以突出预训练模型的概念——即支撑模型预测的核心语义方向,同时避免不必要的特征。

小模型指导大模型!田渊栋等爆锤蒸馏:新方法更高效、更透明、更可控

论文链接:https://arxiv.org/abs/2502.08524

新研究在多个语言建模基准和预训练模型规模(从百万规模到十亿规模的参数模型)上进行广泛的评估,展示了CoCoMix的有效性。

例如,在应用于1.38B参数模型时,CoCoMix在下一个token预测任务中的表现与传统方法相当,同时减少了21.5%的训练数据量。

此外,CoCoMix在弱监督到强监督场景中表现出显著的提升,其中从小模型中提取的概念甚至可以作为真实标签,用于监督大模型的训练。

最后,通过插入压缩的概念向量,能够在生成过程中探查预测的概念,从而引导和控制模型。

主要方法:CoCoMix

CoCoMix是一种新的LLM预训练框架,通过预测概念并将其混入模型的隐状态中,以提高下一个token预测的准确性。

更高的样本效率,在下一个token预测、知识蒸馏以及插入暂停token等任务中表现优越,同时提高可解释性和可引导性,增强模型的可控性。

连续概念混合(CoCoMix)使用基于连续概念的语言建模框架。具体而言,CoCoMix包含三个步骤来学习和使用潜在概念:

1. 从预训练的SAE中,提取概念并选择显著的概念。

2. LLM从其隐藏状态预测这些概念。

3. 一旦预测出多个概念,就将它们压缩成一个单一的「连续概念」,并将其「混合」到LLM隐藏状态中。

小模型指导大模型!田渊栋等爆锤蒸馏:新方法更高效、更透明、更可控

图1:CoCoMix的概览。

新研究证明了CoCoMix具有更高的样本效率,并且优于标准的下一个token预测和知识蒸馏基线。

实验结果

CoCoMix在性能上始终优于下一个token预测和知识蒸馏。

此外,新研究表明CoCoMix可以实现弱监督到强监督的转换,其中从较小模型中提取的概念可以指导更强(或更大)的学生模型

由于模型经过训练可以预测其隐藏状态中的概念,可以通过检查概念预测来分析它关注哪些概念。通过放大或抑制预测的概念,我们还可以控制模型的输出生成。

总而言之,CoCoMix效率更高,并且在不同模型规模下都优于下一个token预测,同时还引入了可解释性。

具体而言,通过研究以下问题,对CoCoMix进行了实证评估:

  • CoCoMix能否提高LLM预训练中下一个token预测的性能?(图2和图3)
  • 与其他知识蒸馏方法相比,CoCoMix从弱监督到强监督设置中是否表现出改进?(表1和图4)
  • CoCoMix是否引入了模型的可解释性和可操纵性?(图5)
  • CoCoMix提出的各个组件对性能贡献如何?(图6)

提高NTP性能

图2展示了CoCoMix与NTP(Next Token Prediction,下一个token预测)在不同训练检查点(checkpoint)的性能比较。每个模型包含总共1.38B个参数,都在OpenWebText数据集上进行训练。对于CoCoMix,概念是从一个1.24亿大小的模型(比基础模型小10倍)中提取的。

显示了以下方面的改进:(a)验证困惑度,(b)在LAMBADA、WikiText-103上的平均困惑度,以及(c)在HellaSwag、PIQA、SIQA、Arc-Easy和WinoGrande上的平均准确率。

小模型指导大模型!田渊栋等爆锤蒸馏:新方法更高效、更透明、更可控

图3展示了CoCoMix与NTP在不同模型大小下的性能比较。考虑了各种模型大小,包括69M、386M和1.38B个参数,并在200B个OpenWebText的token上进行训练。评估了模型在OpenWebText验证困惑度以及下游数据集LAMBADA、WikiText-103、HellaSwag、PIQA、SIQA、Arc-Easy和WinoGrande上的表现。

小模型指导大模型!田渊栋等爆锤蒸馏:新方法更高效、更透明、更可控

与知识蒸馏比较

表1展示了CoCoMix与下一token预测(NTP)与知识蒸馏(KD)的对比。报告了在OpenWebText(OWT)训练集上的表现,以及在下游任务中的表现。训练了三种不同规模的模型,其中124M模型作为教师模型。所有模型均在从OpenWebText数据集采样的20B个token上进行训练。加粗部分表示最佳结果。

小模型指导大模型!田渊栋等爆锤蒸馏:新方法更高效、更透明、更可控

图4展示了CoCoMix与知识蒸馏(KD)的比较。对于弱监督到强监督设置,训练一个386M的模型,其中KD的教师(或CoCoMix的概念提取器)是一个124M大小的模型:报告了(a)在OpenWebText、LAMABADA和WikiText上的平均困惑度,以及(b)在HellaSwag、PIQA、SIQA、Arc-Easy和WinoGrande数据集上的平均准确率。对于(c)分布偏移设置,在OpenWebMath(一个数学特定的预训练语料库)上训练所有方法。

小模型指导大模型!田渊栋等爆锤蒸馏:新方法更高效、更透明、更可控

可解释性和可操纵性

图5是概念引导效果的定性说明。CoCoMix和GPT2模型分别是350M和124M参数的Transformer,训练数据集为OpenWebText。对于CoCoMix,通过调整预测的概念logit值z来进行操作,而对于GPT2,通过增加特定概念索引的激活值来调整SAE概念空间c。这展示了有针对性的概念引导对各自模型输出的影响。

小模型指导大模型!田渊栋等爆锤蒸馏:新方法更高效、更透明、更可控

各组件贡献

小模型指导大模型!田渊栋等爆锤蒸馏:新方法更高效、更透明、更可控

图6 对CoCoMix的分析:

(a) 归因分数在选择概念中的有效性。

(b) 概念预测与直接隐藏状态预测的比较(即,用连续损失预测隐藏状态,而不是用SAE离散化隐藏状态)。

(c) 压缩权重的稀疏性。

(d) 通过分析概念预测和混合的贡献进行的组件分析。

(e) 通过比较将概念向量添加到原始隐藏状态和混合(将概念向量与token隐藏表示交替)来选择概念条件设定的设计。

(f) CoCoMix与暂停token(即添加可学习的tokens)的比较。使用了一个69M的transformer,并且使用来自OpenWebText数据集的20B个tokens进行训练。

另外,值得一提是,作者中有多位华人,特别是「网红科学家」田渊栋也参与了本次论文工作。

更为详细的实验设置,请参阅原文。

相关资讯

AI盈利难、机器人泡沫多!马库斯25年AI预测,隔空喊话马斯克

去年,马库斯对于AI趋势的预测几乎全部正确,但完全没想到OpenAI可以估值到1500亿美元。 在本月2日,马库斯发表了对2025年的25个AI预测,涵盖AGI、GenAI、自动驾驶、人形机器人、智能体等多个方向。 马斯克(Elon Musk),曾预测2025年底的AI能力:「我们就会拥有比任何人都聪明的AI」。

使用 SHAP 使机器学习模型变的可解释!!!

大家好,我是小寒SHAP 是一种用于解释机器学习模型预测结果的方法,它基于博弈论中的 Shapley值。 旨在为每个特征分配一个“贡献值”,表明该特征对模型预测结果的影响有多大。 SHAP 为复杂的黑箱模型(如深度学习模型、集成方法等)提供了一种统一且理论上有保障的解释框架,帮助我们理解模型的决策过程,提高模型的透明度和可信度。

AI学术算命?Gemini 2.0预测谷歌AI大佬职业生涯,准到离谱!

如果让人工智能来点评博士论文,还顺手预测一下作者将来的职业发展。 会是什么样子? 最近,谷歌首席科学家、Gemini负责人Jeff Dean就玩了这么一出,他把自己的博士论文交给了最新的Gemini 2.0。