大模型增速远超摩尔定律!MIT 最新钻研:人类快要喂不饱 AI 了

【新智元导读】近日,来自 MIT (麻省理工学院)的钻研职员发表了关于大模型才智增速的钻研,结果表明,LLM 的才智大约每 8 个月就会翻一倍,速率远超摩尔定律!硬件马上就要跟不上啦!我们人类可能要养不起 AI 了!近日,来自 MIT FutureTech 的钻研职员发表了一项关于大模型才智增长速率的钻研,结果表明:LLM 的才智大约每 8 个月就会翻一倍,速率远超摩尔定律!论文地址: 的才智提升大部分来自于算力,而摩尔定律代表着硬件算力的发展,—— 也就是说,随着时候的推移,终有一天我们将无法满足 LLM 所需要

【新智元导读】近日,来自 MIT (麻省理工学院)的钻研职员发表了关于大模型才智增速的钻研,结果表明,LLM 的才智大约每 8 个月就会翻一倍,速率远超摩尔定律!硬件马上就要跟不上啦!

我们人类可能要养不起 AI 了!

近日,来自 MIT FutureTech 的钻研职员发表了一项关于大模型才智增长速率的钻研,结果表明:LLM 的才智大约每 8 个月就会翻一倍,速率远超摩尔定律!

大模型增速远超摩尔定律!MIT 最新钻研:人类快要喂不饱 AI 了

论文地址:https://arxiv.org/pdf/2403.05812.pdf

LLM 的才智提升大部分来自于算力,而摩尔定律代表着硬件算力的发展,

—— 也就是说,随着时候的推移,终有一天我们将无法满足 LLM 所需要的算力!

如果那个时候 AI 有了意识,不知道会不会自己想办法找饭吃?

大模型增速远超摩尔定律!MIT 最新钻研:人类快要喂不饱 AI 了

上图暗示不同领域的算法改进对灵验估计翻倍的估计。蓝点暗示中心估计值或范围;蓝色三角形对应于不同巨细(范围从 1K 到 1B)的问题的倍增时候;紫色虚线对应于摩尔定律暗示的 2 年倍增时候。

摩尔定律和比尔盖茨

摩尔定律(Moore’s law)是一种经验或者观察结果,暗示集成电路(IC)中的晶体管数目大约每两年翻一番。

1965 年,仙童半导体(Fairchild Semiconductor)和英特尔的联合创始人 Gordon Moore 假设集成电路的组件数目每年翻一番,并展望这种增长率将至少再持续十年。

大模型增速远超摩尔定律!MIT 最新钻研:人类快要喂不饱 AI 了

1975 年,展望下一个十年,他将展望修改为每两年翻一番,复合年增长率(CAGR)为 41%。

虽然 Moore 没有使用经验证据来展望历史趋势将继续下去,但他的展望自 1975 年以来一直成立,所以也就成了“定律”。

因为摩尔定律被半导体行业用于指导长期规划和设定研发目标,所以在某种程度上,成了一种自我实现预言。

数字电子技术的进步,例如微处理器价格的降低、内存容量(RAM 和闪存)的增加、传感器的改进,甚至数码相机中像素的数目和巨细,都与摩尔定律密切相关。

数字电子的这些持续变化一直是技术和社会变革、生产力和经济增长的驱动力。

不过光靠自我激励肯定是不行的,虽然行业专家没法对摩尔定律能持续多久达成共识,但根据微处理器架构师的报告,自 2010 年左右以来,整个行业的半导体发展速率已经放缓,略低于摩尔定律展望的速率。

下面是维基百科给出的晶体管数目增长趋势图:

大模型增速远超摩尔定律!MIT 最新钻研:人类快要喂不饱 AI 了

到了 2022 年 9 月,英伟达首席执行官黄仁勋直言“摩尔定律已死”,不过英特尔首席执行官 Pat Gelsinger 则暗示不同意。

大模型增速远超摩尔定律!MIT 最新钻研:人类快要喂不饱 AI 了

从下图我们可以看出,英特尔还在努力用各种技术和方法为自己老祖宗提出的定律续命,并暗示,问题不大,你看我们还是直线没有弯。

大模型增速远超摩尔定律!MIT 最新钻研:人类快要喂不饱 AI 了

Andy and Bill’s Law

关于算力的增长,有一句话是这样说的:“安迪给的,比尔都拿走(What Andy giveth, Bill taketh away)”。

大模型增速远超摩尔定律!MIT 最新钻研:人类快要喂不饱 AI 了

这反映了当时的英特尔首席执行官 Andy Grove 每次向市场推出新芯片时,微软的 CEO 比尔・盖茨(Bill Gates)都会通过升级软件来吃掉芯片提升的功能。

—— 而以后吃掉芯片算力的就是大模型了,而且根据 MIT 的这项钻研,大模型以后根本吃不饱。

钻研方法

如何定义 LLM 的才智提升?首先,钻研职员对模型的才智进行了量化。

基本的思想就是:如果一种算法或架构在基准尝试中以一半的估计量获得相同的结果,那么就可以说,它比另一种算法或架构好两倍。

有了比赛规则之后,钻研职员招募了 200 多个谈话模型来参加比赛,同时为了确保公平公正,比赛所用的数据集是 WikiText-103 和 WikiText-2 以及 Penn Treebank,代表了多年来用于评价谈话模型的高质量文本数据。

专注于谈话模型开发过程中使用的既定基准,为比较新旧模型提供了连续性。

需要注意的是,这里只量化了预训练模型的才智,没有考虑一些“训练后增强”手段,比如思维链提示(COT)、微调技术的改进或者集成搜索的方法(RAG)。

模型定义

钻研职员通过拟合一个满足两个关键目标的模型来评价其功能水平:

(1)模型必须与之前关于神经标度定律的工作大致一致;

(2)模型应允许分解提高功能的主要因素,例如提高模型中数据或自由参数的使用效率。

这里采用的核心方法类似于之前提出的缩放定律,将 Dense Transformer 的训练损失 L 与其参数 N 的数目和训练数据集巨细 D 相关联:

大模型增速远超摩尔定律!MIT 最新钻研:人类快要喂不饱 AI 了

其中 L 是数据集上每个 token 的穿插熵损失,E、A、B、α 和 β 是常数。E 暗示数据集的“不可减少损失”,而第二项和第三项分别代表由于模型或数据集的有限性而导致的错误。

因为随着时候的推移,实现相同功能水平所需的资源(N 和 D)会减少。为了衡量这一点,作者在模型中引入了“灵验数据”和“灵验模型巨细”的概念:

大模型增速远超摩尔定律!MIT 最新钻研:人类快要喂不饱 AI 了

其中的 Y 暗示年份,前面的系数暗示进展率,代入上面的缩放定律,可以得到:

大模型增速远超摩尔定律!MIT 最新钻研:人类快要喂不饱 AI 了

通过这个公式,就可以估计随着时候的推移,实现相同功能水平所需的更少资源(N 和 D)的速率。

数据集

参与测评的包含 400 多个在 WikiText-103(WT103)、WikiText-2(WT2)和 Penn Treebank(PTB)上评价的谈话模型,其中约 60% 可用于分析。

钻研职员首先从大约 200 篇不同的论文中检索了相关的评价信息,又额外使用框架执行了 25 个模型的评价。

然后,考虑数据的子集,其中包含拟合模型结构所需的信息:token 级尝试困惑度(决定穿插熵损失)、发布日期、模型参数数目和训练数据集巨细,最终筛选出 231 个模型供分析。

大模型增速远超摩尔定律!MIT 最新钻研:人类快要喂不饱 AI 了

这 231 个谈话模型,跨越了超过 8 个数目级的估计,上图中的每个形状代表一个模型。

形状的巨细与训练期间使用的估计成正比,困惑度评价来自于现有文献以及作者自己的评价尝试。

在某些情况下,会从同一篇论文中检索到多个模型,为了避免自相关带来的问题,这里每篇论文最多只选择三个模型。

实证结果

根据缩放定律,以及作者引入的灵验数据、灵验参数和灵验估计的定义来进行评价,结果表明:灵验估计的中位倍增时候为 8.4 个月,95% 置信区间为 4.5 至 14.3 个月。

大模型增速远超摩尔定律!MIT 最新钻研:人类快要喂不饱 AI 了

上图暗示通过穿插验证选择的模型的算法进度估计值。图 a 显示了倍增时候的汇总估计值,图 b 显示了从左到右按穿插验证功能递减(MSE 尝试损耗增加)排序。

大模型增速远超摩尔定律!MIT 最新钻研:人类快要喂不饱 AI 了

上图比较了 2016 年至 2020 年前后的算法灵验估计的估计倍增时候。相对于前期,后期的倍增时候较短,表明在该截止年之后算法进步速率加快。

参考资料

本文来自微信公众号:新智元 (ID:AI_era)

给TA打赏
共{{data.count}}人
人已打赏
AI

OpenAI 首席技术官:不确定 Sora 的训练数据来自哪里

2024-3-18 16:07:57

AI

ASCII 字符画成注入工具,研讨职员发现大模型“越狱”新手段

2024-3-18 17:10:33

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索