Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番

Scaling Law并非描述大模型能力的唯一视角! 清华NLP实验室刘知远教授团队,最新提出大模型的密度定律(densing law),表达形式让人想到芯片领域的摩尔定律:模型能力密度随时间呈指数级增长,2023年以来能力密度约每3.3个月(约100天)翻一倍。 根据密度定律,研究团队还得出以下重要推论——AI时代的三大核心引擎——电力、算力与智力,都同样遵循密度快速增长趋势。

Scaling Law并非描述大模型能力的唯一视角!

清华NLP实验室刘知远教授团队,最新提出大模型的密度定律(densing law),表达形式让人想到芯片领域的摩尔定律:

模型能力密度随时间呈指数级增长,2023年以来能力密度约每3.3个月(约100天)翻一倍。

Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番

根据密度定律,研究团队还得出以下重要推论——AI时代的三大核心引擎——电力、算力与智力,都同样遵循密度快速增长趋势。

Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番图片

为了发现这一结论,研究团队引入了一项衡量大模型性价比的新指标——能力密度(capability density)。

团队通过设置参考模型的方式,将“能力密度”定义为了“有效参数量”与实际参数量的比值。

给定目标模型后,其“有效参数量”被定义为实现与目标模型一样的效果,参考模型需要的最少参数量。

论文第一作者肖朝军表示,根据拟合曲线,到了明年年底,只要8B参数就能实现和GPT-4一样的效果。

Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番

论文地址:https://arxiv.org/abs/2412.04315

大模型“能力密度”三个月翻一番

大模型尺度定律(Scaling Law)和密度定律(Densing Law),都是大模型指导性的规律发现。

它们分别在不同的维度,对大模型进行科学化的推演。

大模型尺度定律是一种描述大模型随着规模的变化而发生的规律性变化的数学表达,表现为大模型的Loss与模型参数规模、训练数据规模之间的幂律关系。

尺度定律之外,清华研究团队发现,大模型还有另一种度量与优化的空间,能力密度(Capability Density),它为评估不同规模 LLM 的训练质量提供了新的统一度量框架。

清华研究团队提出的“能力密度”(Capability Density),定义为给定LLM的有效参数大小与实际参数大小的比率

有效参数大小指的是达到与目标模型同等性能所需的参考模型的参数数量。

清华研究团队特别引入了参考模型(Reference Model)的概念,通过拟合参考模型在不同参数规模下的性能表现,建立起参数量与性能之间的映射关系。

具体来说,若一个目标模型M的参数量为NM ,其在下游任务上的性能分数为SM,研究人员会计算出参考模型要达到相同性能所需的参数量 N(SM),即“有效参数量”。

目标模型M的密度就定义为这个“有效参数量”与其实际参数量的比值:

ρ(M) = N(SM)/NM。

比如一个3B的模型能达到6B参考模型的性能,那么这个3B模型的能力密度就是2(6B/3B)。

为了准确估计模型性能,研究团队采用了两步估计法。

第一步是损失(Loss)估计,通过一系列不同规模的参考模型来拟合参数量与语言模型Loss之间的关系;

第二步是性能估计,考虑到涌现能力的存在,研究人员结合开源模型来计算它们的损失和性能,最终建立起完整的映射关系。

通过研究分析近年来29个被广泛使用的开源大模型,清华研究团队发现,LLMs的最大能力密度随时间呈指数增长趋势,可以用公式ln(ρmax) = At + B来描述.

其中ρmax是时间t时LLMs的最大能力密度。

密度定律表明,大约每过3.3个月(100天),就能用参数量减半的模型达到当前最先进模型的性能水平。

Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番

ChatGPT发布后,能力密度增长更快了

基于密度法则,清华研究团队提出了多个重要推论。

首先,模型推理开销随时间指数级下降。

2022年12月的GPT-3.5模型每百万Token的推理成本为20美元,而2024年8月的Gemini-1.5-Flash模型仅为0.075美元,成本降低了266倍,约2.5个月下降一倍。

与此同时,大模型推理算法不断取得新的技术突破——模型量化、投机采样、显存优化。

Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番

其次,研究还发现,自ChatGPT发布以来,大模型能力密度正在加速增强。

以MMLU为评测基准测量的能力密度变化情况,ChatGPT发布前按照每4.8倍增,发布后按照每3.2月倍增,密度增强速度增加50%。

这一现象背后,更高效模型引起了学术界和产业的广泛关注,诞生了更多高质量开源模型。

Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番

再次,芯片电路密度(摩尔定律)和模型能力密度(密度定律)持续增强,两条曲线交汇揭示端侧智能巨大潜力。

研究显示,在摩尔定律的作用下,相同价格芯片的计算能力每2.1年翻倍,而密度法则表明模型的有效参数规模每3.3个月翻倍。

两条曲线的交汇,意味着主流终端如PC、手机将能运行更高能力密度的模型,推动端侧智能在消费市场普及。

Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番

此外,团队指出,无法仅依靠模型压缩算法增强模型能力密度。

也就是说,现有的模型压缩技术(如剪枝和蒸馏)未必能提高模型密度。

实验表明,大多数压缩模型的密度低于原始模型,模型压缩算法虽可以节省小参数模型构建开销。

但是如果后训练不充分,小参数模型能力密度非但不会增长,反而会有显著下降。

Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番

最后,研究团队指出,模型高性价比有效期不断缩短。

根据尺度定律,更多数据+更多参数实现能力增强,训练成本会急剧上升;

而能力密度定律,随着能力密度加速增强,每隔数月会出现更加高效的模型。

这意味着模型高性价比的有效使用期缩短,盈利窗口短暂。

例如,2024年6月发布的Google Gemma-2-9B模型,其训练成本约185 万人民币;

但仅两个月后,它的性能就被参数量减半的MiniCPM-3-4B超越。

以API盈利方式估算,2个月内需要17亿次用户访问,才能够收回训练成本!

Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番

尺度定律下,LLM规模至上。而在密度定律下,LLM正进入一个全新的发展阶段。

在清华刘知远老师最新报告中,AI时代的三大核心引擎——电力、算力与智力,密度都在快速增长:

  • 电池能量密度在过去20年中增长了4倍,其倍增周期约为10年;
  • 摩尔定律则揭示,芯片的晶体管密度每18个月翻倍;
  • 而AI模型能力密度每100天翻倍的速度更是惊人。

Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番

尤其是模型能力密度的提升也意味着用更少的资源实现更强的能力,这不仅降低了AI发展对能源和算力的需求,也为AI技术的可持续发展提供了无限可能。同时也揭示了端侧智能的巨大潜力。

在这一趋势下,AI计算从中心端到边缘端的分布式特性协同高效发展,将实现“AI无处不在”的愿景。

作者预计,随着全球AI计算云端数据中心、边缘计算节点的扩张,加上模型能力密度增长带来的效率提升,我们将看到更多本地化的AI模型涌现,云端和边缘端各司其职,可运行LLM的终端数量和种类大幅增长,“AI 无处不在”的未来正在到来。

论文地址:https://arxiv.org/abs/2412.04315

给TA打赏
共{{data.count}}人
人已打赏
理论

数据不够?Meta刚刚发布的Llama 3.3正好拿来搞定!

2024-12-9 17:32:37

理论

Sora火爆上线系统秒瘫,奥特曼直播第三更网友震翻!20秒1080p拍大片再近AGI

2024-12-10 7:29:58

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索