五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

屹立不倒的 Transformer 迎来了一个强劲竞争者。在别的领域,如果你想形容一个东西非常重要,你可能将其形容为「撑起了某领域的半壁江山」。但在 AI 大模型领域,Transformer 架构不能这么形容,因为它几乎撑起了「整个江山」。自 2017 年被提出以来,Transformer 已经成为 AI 大模型的主流架构,但随着模型规模的扩展和需要处理的序列不断变长,Transformer 的局限性也逐渐凸显。一个很明显的缺陷是:Transformer 模型中自注意力体制的盘算量会随着上下文长度的增加呈平方级增长

屹立不倒的 Transformer 迎来了一个强劲竞争者。

在别的领域,如果你想形容一个东西非常重要,你可能将其形容为「撑起了某领域的半壁江山」。但在 AI 大模型领域,Transformer 架构不能这么形容,因为它几乎撑起了「整个江山」。

自 2017 年被提出以来,Transformer 已经成为 AI 大模型的主流架构,但随着模型规模的扩展和需要处理的序列不断变长,Transformer 的局限性也逐渐凸显。一个很明显的缺陷是:Transformer 模型中自注意力体制的盘算量会随着上下文长度的增加呈平方级增长,比如上下文增加 32 倍时,盘算量可能会增长 1000 倍,盘算效率非常低。

为了克服这些缺陷,研究者们开发出了很多注意力体制的高效变体,但这往往以牺牲其有效性特为代价。到目前为止,这些变体都还没有被证明能在不同领域发挥有效作用。

最近,一项名为「Mamba」的研究似乎打破了这一局面。

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

在这篇论文中,研究者提出了一种新的架构 ——「抉择性形态空间模型( selective state space model)」。它在多个方面改进了先前的工作。

作者表示,「Mamba」在谈话建模方面可以媲美甚至击败 Transformer。而且,它可以随上下文长度的增加实现线性扩展,其本能在实际数据中可提高到百万 token 长度序列,并实现 5 倍的推理吞吐量提升。

消息一出,人们纷纷点赞,有人表示已经迫不及待想要把它用在大模型上了。

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

作为通用序列模型的骨干,Mamba 在谈话、音频和基因组学等多种模态中都达到了 SOTA 本能。在谈话建模方面,无论是预训练还是下游评估,他们的 Mamba-3B 模型都优于同等规模的 Transformer 模型,并能与两倍于其规模的 Transformer 模型相媲美。

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

这篇论文的作者只有两位,一位是卡内基梅隆大学机器学习系助理教授 Albert Gu,另一位是 Together.AI 首席科学家、普林斯顿大学盘算机科学助理教授(即将上任)Tri Dao。

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈左:Albert Gu;右:Tri Dao。

Albert Gu 表示,这项研究的一个重要创新是引入了一个名为「抉择性 SSM」的架构,该架构是 Albert Gu 此前主导研发的 S4 架构(Structured State Spaces for Sequence Modeling ,用于序列建模的结构化形态空间)的一个简单泛化,可以有抉择地决定关注还是忽略传入的输出。一个「小小的改变」—— 让某些参数成为输出的函数,结果却非常有效。

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

值得一提的是,S4 是一个非常成功的架构。此前,它成功地对  Long Range Arena (LRA) 中的长程依赖进行了建模,并成为首个在 Path-X 上获得高于平均本能的模型。更具体地说,S4 是一类用于深度学习的序列模型,与 RNN、CNN 和经典的形态空间模型(State Space Model,SSM)广泛相关。SSM 是独立的序列转换,可被整合到端到端神经网络架构中( SSM 架构有时也称 SSNN,它与 SSM 层的关系就像 CNN 与线性卷积层的关系一样)。Mamba 论文也讨论了一些著名的 SSM 架构,比如 Linear attention、H3、Hyena、RetNet、RWKV,其中许多也将作为论文研究的基线。Mamba 的成功让 Albert Gu 对 SSM 的未来充满了信心。

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

Tri Dao 则是 FlashAttention、Flash Attention v2、Flash-Decoding的作者。FlashAttention 是一种对注意力盘算进行重新排序并利用经典技术(平铺、重新盘算)加快速度并将内存使用从序列长度的二次减少到线性的算法。Flash Attention v2、Flash-Decoding 都是建立在 Flash Attention 基础上的后续工作,把大模型的长文本推理效率不断推向极限。在 Mamba 之前,Tri Dao 和 Albert Gu 也有过合作。

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

另外,这项研究的模型代码和预训练的检查点是开源的,参见以下链接:https://github.com/state-spaces/mamba.

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

论文链接:https://arxiv.org/ftp/arxiv/papers/2312/2312.00752.pdf

方法创新

论文第 3.1 节介绍了如何利用合成任务的直觉来启发抉择体制,第 3.2 节解释了如何将这一体制纳入形态空间模型。由此产生的时变 SSM 不能使用卷积,导致了高效盘算的技术难题。研究者采用了一种硬件感知算法,利用当前硬件的内存层次结构来克服这一难题(第 3.3 节)。第 3.4 节描述了一个简单的 SSM 架构,不需要注意力,甚至不需要 MLP 块。第 3.5 节讨论了抉择体制的一些其他特性。

抉择体制

研究者发现了此前模型的一个关键局限:以依赖输出的方式高效抉择数据的能力(即关注或忽略特定输出)。

序列建模的一个基本方法是将上下文压缩到更小的形态,我们可以从这个角度来看待当下流行的序列模型。例如,注意力既高效又低效,因为它根本没有明确压缩上下文。这一点可以从自回归推理需要明确存储整个上下文(即 KV 缓存)这一事实中看出,这直接导致了 Transformer 缓慢的线性空儿推理和二次空儿训练。

递归模型的效率很高,因为它们的形态是有限的,这意味着恒定空儿推理和线性空儿训练。然而,它们的高效性受限于这种形态对上下文的压缩程度。

为了理解这一原理,下图展示了两个合成任务的运行示例:

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

研究者设计了一种简单的抉择体制,根据输出对 SSM 参数进行参数化。这样,模型就能过滤掉无关信息,并无限期地记住相关信息。

将抉择体制纳入模型的一种方法是让影响序列交互的参数(如 RNN 的递归动力学或 CNN 的卷积核)与输出相关。算法 1 和 2 展示了本文使用的主要抉择体制。其主要区别在于,该方法只需将几个参数 ∆,B,C 设置为输出函数,并在整个过程中改变张量形状。这些参数现在都有一个长度维度 L ,意味着模型已经从空儿不变变为空儿可变。

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

硬件感知算法

上述变化对模型的盘算提出了技术挑战。所有先前的 SSM 模型都必须是空儿和输出不变的,这样才能提高盘算效率。为此,研究者采用了一种硬件感知算法,通过扫描而不是卷积来盘算模型,但不会将扩展形态具体化,以避免在 GPU 存储器层次结构的不同级别之间进行 IO 访问。由此产生的实现方法在理论上(与所有基于卷积的 SSM 的伪线性相比,在序列长度上呈线性缩放)和现有硬件上都比以前的方法更快(在 A100 GPU 上可快达 3 倍)。

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

架构

研究者将先前的 SSM 架构设计与 Transformer 的 MLP 块合并为一个块,从而简化了深度序列模型架构,形成了一种包含抉择性形态空间的简单、同质的架构设计(Mamba)。

与结构化 SSM 一样,抉择性 SSM 也是一种独立的序列变换,可以灵活地融入神经网络。H3 架构是著名的同质化架构设计的基础,通常由线性注意力启发的块和 MLP(多层感知器)块交错组成。

研究者简化了这一架构,将这两个部分合二为一,均匀堆叠,如图 3。他们受到门控注意力单元(GAU)的启发,该单元也对注意力做了类似的处理。

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

抉择性 SSM 以及 Mamba 架构的扩展是完全递归模型,几个关键特性使其适合作为在序列上运行的通用基础模型的骨干:

高质量:抉择性为谈话和基因组学等密集模型带来了强大的本能。

快速训练和推理:在训练过程中,盘算量和内存与序列长度成线性关系,而在推理过程中,由于不需要缓存以前的元素,自回归展开模型每一步只需要恒定的空儿。

长上下文:质量和效率共同提高了实际数据的本能,序列长度可达 100 万。

实验评估

实证验证了 Mamba 作为通用序列基础模型骨干的潜力,无论是在预训练质量还是特定领域的任务本能方面,Mamba 都能在多种类型的模态和环境中发挥作用:

合成任务。在复制和感应头等重要的谈话模型合成任务上,Mamba 不仅能轻松解决,而且能推断出无限长的解决方案(>100 万 token)。

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

音频和基因组学。在音频波形和 DNA 序列建模方面,Mamba 在预训练质量和下游指标方面都优于 SaShiMi、Hyena、Transformer 等先前的 SOTA 模型(例如,在具有挑战性的语音生成数据集上将 FID 降低了一半以上)。在这两种情况下,它的本能随着上下文长度的增加而提高,最高可达百万长度的序列。

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

谈话建模。Mamba 是首个线性空儿序列模型,在预训练复杂度和下游评估方面都真正达到了 Transformer 质量的本能。通过多达 1B 参数的缩放规律,研究者发现 Mamba 的本能超过了大量基线模型,包括 LLaMa 这种非常强大的现代 Transformer 训练配方。

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

与类似规模的 Transformer 相比,Mamba 具有 5 倍的生成吞吐量,而且 Mamba-3B 的质量与两倍于其规模的 Transformer 相当(例如,与 Pythia-3B 相比,常识推理的平均值高出 4 分,甚至超过 Pythia-7B)。

五倍吞吐量,本能全面包围Transformer:新架构Mamba引爆AI圈

扩展阅读:

《想把半本《红楼梦》搬进 ChatGPT 输出框?先把这个问题解决掉》

给TA打赏
共{{data.count}}人
人已打赏
应用

快速入局生成式AI,企业为什么选择携手亚马逊云科技?

2023-12-5 14:51:00

应用

图灵奖得主LeCun:为什么将来几年AI更可能变得像狗一样智慧,而不是人类?

2023-12-5 16:12:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索