Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

序列建模的进展具有极大的影响力,因为它们在广泛的应用中发挥着重要作用,包括加强进修(例如,机器人和自动驾驶)、光阴序列分类(例如,金融欺诈检测和医学诊断)等。在过去的几年里,Transformer 的出现标志着序列建模中的一个重大突破,这主要得益于 Transformer 提供了一种能够利用 GPU 并行处理的高性能架构。然而,Transformer 在推理时较量争论开销很大,主要在于内存和较量争论需求呈二次扩展,从而限制了其在低资源环境中的应用(例如,移动和嵌入式设备)。尽管可以采用 KV 缓存等技术提高推理效率,但 T

序列建模的进展具有极大的影响力,因为它们在广泛的应用中发挥着重要作用,包括加强进修(例如,机器人和自动驾驶)、光阴序列分类(例如,金融欺诈检测和医学诊断)等。

在过去的几年里,Transformer 的出现标志着序列建模中的一个重大突破,这主要得益于 Transformer 提供了一种能够利用 GPU 并行处理的高性能架构。

然而,Transformer 在推理时较量争论开销很大,主要在于内存和较量争论需求呈二次扩展,从而限制了其在低资源环境中的应用(例如,移动和嵌入式设备)。尽管可以采用 KV 缓存等技术提高推理效率,但 Transformer 对于低资源领域来说仍然非常昂贵,原因在于:(1)随 token 数量线性增加的内存,以及(2)缓存所有先前的 token 到模型中。在具有长上下文(即大量 token)的环境中,这一问题对 Transformer 推理的影响更大。 

为了解决这个问题,加拿大皇家银行 AI 研究所 Borealis AI、蒙特利尔大学的研究者在论文《Attention as an RNN 》中给出了解决方案。值得一提的是,我们发现图灵奖得主 Yoshua Bengio 出现在作家一栏里。

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

论文地址:https://arxiv.org/pdf/2405.13956

论文标题:Attention as an RNN

具体而言,研究者首先检查了 Transformer 中的注意力机制,这是导致 Transformer 较量争论复杂度呈二次增长的组件。该研究表明注意力机制可以被视为一种特殊的循环神经网络(RNN),具有高效较量争论的多对一(many-to-one)RNN 输入的能力。利用注意力的 RNN 公式,该研究展示了流行的鉴于注意力的模型(例如 Transformer 和 Perceiver)可以被视为 RNN 变体。

然而,与 LSTM、GRU 等传统 RNN 不同,Transformer 和 Perceiver 等流行的注意力模型虽然可以被视为 RNN 变体。但遗憾的是,它们无法高效地利用新 token 进行革新。

为了解决这个问题,该研究引入了一种鉴于并行前缀扫描(prefix scan)算法的新的注意力公式,该公式能够高效地较量争论注意力的多对多(many-to-many)RNN 输入,从而实现高效的革新。

在此新注意力公式的基础上,该研究提出了 Aaren([A] ttention [a] s a [re] current neural [n] etwork),这是一种较量争论效率很高的模块,不仅可以像 Transformer 一样并行训练,还可以像 RNN 一样高效革新。

实验结果表明,Aaren 在 38 个数据集上的表现与 Transformer 相当,这些数据集涵盖了四种常见的序列数据设置:加强进修、事件猜测、光阴序列分类和光阴序列猜测任务,同时在光阴和内存方面更加高效。 

法子介绍

为了解决上述问题,作家提出了一种鉴于注意力的高效模块,它能够利用 GPU 并行性,同时又能高效革新。

首先,作家在第 3.1 节中表明,注意力可被视为一种 RNN,具有高效较量争论多对一 RNN(图 1a)输入的特殊能力。利用注意力的 RNN 形式,作家进一步说明,鉴于注意力的流行模型,如 Transformer(图 1b)和 Perceiver(图 1c),可以被视为 RNN。然而,与传统的 RNN 不同的是,这些模型无法根据新 token 有效地革新自身,从而限制了它们在数据以流的形式到达的序列问题中的潜力。

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

为了解决这个问题,作家在第 3.2 节中介绍了一种鉴于并行前缀扫描算法的多对多 RNN 较量争论注意力的高效法子。在此基础上,作家在第 3.3 节中介绍了 Aaren—— 一个较量争论效率高的模块,它不仅可以并行训练(就像 Transformer),还可以在推理时用新 token 高效革新,推理只必要恒定的内存(就像传统 RNN)。

将注意力视为一个多对一 RNN

查询向量 q 的注意力可被视为一个函数,它通过 N 个上下文 token x_1:N 的键和值Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存将其映射到单一输入 o_N = Attention (q, k_1:N , v_1:N ) 。给定 s_i = dot (q,k_i),输入 o_N 可表述为:  

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

其中分子为 Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存,分母为Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存。将注意力视为 RNN,可以在 k = 1,…,…… 时,以滚动求和的方式迭代较量争论Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存。然而,在实践中,这种实现方式并不稳定,会因有限的精度表示和可能非常小或非常大的指数(即 exp (s))而遇到数值问题。为了缓解这一问题,作家用累积最大值项Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存 来重写递推公式,较量争论Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存。值得注意的是,最终结果是相同的Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存,m_k 的循环较量争论如下:

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

通过从 a_(k-1)、c_(k-1) 和 m_(k-1) 对 a_k、c_k 和 m_k 的循环较量争论进行封装,作家引入了一个 RNN 单元,它可以迭代较量争论注意力的输入(见图 2)。注意力的 RNN 单元以(a_(k-1), c_(k-1),  m_(k-1), q)作为输入,并较量争论(a_k, c_k, m_k, q)。注意,查询向量 q 在 RNN 单元中被传递。注意力 RNN 的初始隐藏状态为 (a_0, c_0, m_0, q) = (0, 0, 0, q)。Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

较量争论注意力的法子:通过将注意力视为一个 RNN,可以看到较量争论注意力的不同法子:在 O (1) 内存中逐个 token 循环较量争论(即顺序较量争论);或以传统方式较量争论(即并行较量争论),必要线性 O (N) 内存。由于注意力可以被看作是一个 RNN,因此较量争论注意力的传统法子也可以被看作是较量争论注意力多对一 RNN 输入的高效法子,即 RNN 的输入以多个上下文 token 为输入,但在 RNN 结束时只输入一个 token(见图 1a)。最后,也可以将注意力较量争论为一个逐块处理 token 的 RNN,而不是完全按顺序或完全并行较量争论,这必要 O (b) 内存,其中 b 是块的大小。

将现有的注意力模型视为 RNN。通过将注意力视为 RNN,现有的鉴于注意力的模型也可以被视为 RNN 的变体。例如,Transformer 的自注意力是 RNN(图 1b),上下文 token 是其初始隐藏状态。Perceiver 的交叉注意力是 RNN(图 1c),其初始隐藏状态是与上下文相关的潜变量。通过利用其注意力机制的 RNN 形式,这些现有模型可以高效地较量争论其输入存储。

然而,当将现有的鉴于注意力的模型(如 Transformers)视为 RNN 时,这些模型又缺乏传统 RNN(如 LSTM 和 GRU)中常见的重要属性。

值得注意的是,LSTM 和 GRU 能够仅在 O (1) 常量内存和较量争论中利用新 token 有效地革新自身,相比之下, Transformer 的 RNN 视图(见图 1b)会通过将一个新的 token 作为初始状态添加一个新的 RNN 来处理新 token。这个新的 RNN 处理所有先前的 token,必要 O (N) 的线性较量争论量。

在 Perceiver 中,由于其架构的原因,潜变量(图 1c 中的 L_i)是依赖于输入的,这意味着它们的值在接收新 token 时会发生变化。由于其 RNN 的初始隐藏状态(即潜变量)发生变化,Perceiver 因此必要从头开始重新较量争论其 RNN,必要 O (NL) 的线性较量争论量,其中 N 是 token 的数量,L 是潜变量的数量。 

将注意力视为一个多对多 RNN

针对这些局限性,作家建议开发一种鉴于注意力的模型,利用 RNN 公式的能力来执行高效革新。为此,作家首先引入了一种高效的并行化法子,将注意力作为多对多 RNN 较量争论,即并行较量争论Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存的法子。为此,作家利用并行前缀扫描算法(见算法 1),这是一种通过关联算子 ⊕ 从 N 个连续数据点较量争论 N 个前缀的并行较量争论法子。该算法可高效较量争论Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

回顾Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存,其中 Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存为了高效较量争论Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存,可以通过并行扫描算法较量争论Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存,然后结合 a_k 和 c_k 较量争论Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

为此,作家提出了以下关联算子⊕,该算子作用于形式为(m_A、u_A、w_A)的三元组,其中 A 是一组索引,Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存。并行扫描算法的输入为Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存。该算法递归应用算子 ⊕,其工作原理如下:

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存,其中,Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

在完成递归应用算子后,算法输入Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存。也被称作Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存。结合输入元组的最后两个值,检索Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存从而产生一种高效的并行法子,将注意力较量争论为多对多 RNN(图 3)。

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

Aaren:[A] ttention [a] s a [re] current neural [n] etwork

Aaren 的接口与 Transformer 相同,即将 N 个输入映射到 N 个输入,而第 i 个输入是第 1 到第 i 个输入的聚合。此外,Aaren 还自然可堆叠,并且能够较量争论每个序列 token 的单独损失项。然而,与利用因果自注意力的 Transformers 不同,Aaren 利用上述较量争论注意力的法子作为多对多 RNN,使其更加高效。Aaren 形式如下:

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

与 Transformer 不同,在 Transformer 中查询是输入到注意力的 token 之一,而在 Aaren 中,查询 token q 是在训练过程中通过反向传播进修得到的。 

下图展示了一个堆叠 Aaren 模型的例子,该模型的输入上下文 token 为 x_1:3,输入为 y_1:3。值得注意的是,由于 Aaren 利用了 RNN 形式的注意力机制,堆叠 Aarens 也相当于堆叠 RNN。因此,Aarens 也能够高效地用新 token 进行革新,即 y_k 的迭代较量争论仅必要常量较量争论,因为它仅依赖于 h_k-1 和 x_k。

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

鉴于 Transformer 的模型必要线性内存(利用 KV 缓存时)并且必要存储所有先前的 token ,包括中间 Transformer 层中的那些,但鉴于 Aaren 的模型只必要常量内存,并且不必要存储所有先前的 token ,这使得 Aarens 在较量争论效率上显著优于 Transformer。 

实验

实验部分的目标是比较 Aaren 和 Transformer 在性能和所需资源(光阴和内存)方面的表现。为了进行全面比较,作家在四个问题上进行了评估:加强进修、事件猜测、光阴序列猜测和光阴序列分类。

加强进修

作家首先比较了 Aaren 和 Transformer 在加强进修方面的表现。加强进修在机器人、推荐引擎和交通控制等交互式环境中很受欢迎。

表 1 中的结果表明,在所有 12 个数据集和 4 种环境中,Aaren 与 Transformer 的性能都不相上下。不过,与 Transformer 不同的是,Aaren 也是一种 RNN,因此能够在持续较量争论中高效处理新的环境交互,从而更适合加强进修。

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

事件猜测

接下来,作家比较了 Aaren 和 Transformer 在事件猜测方面的表现。事件猜测在许多现实环境中都很流行,例如金融(如交易)、医疗保健(如患者观察)和电子商务(如购买)。

表 2 中的结果显示,Aaren 在所有数据集上的表现都与 Transformer 相当。Aaren 能够高效处理新输入,这在事件猜测环境中尤为有用,因为在这种环境中,事件会以不规则流的形式出现。

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

光阴序列猜测

然后,作家比较了 Aaren 和 Transformer 在光阴序列猜测方面的表现。光阴序列猜测模型通常用在与气候(如天气)、能源(如供需)和经济(如股票价格)相关的领域。

表 3 中的结果显示,在所有数据集上,Aaren 与 Transformer 的性能相当。不过,与 Transformer 不同的是,Aaren 能高效处理光阴序列数据,因此更适合与光阴序列相关的领域。

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

光阴序列分类

接下来,作家比较了 Aaren 和 Transformer 在光阴序列分类方面的表现。光阴序列分类在许多重要的应用中很常见,例如模式识别(如心电图)、异常检测(如银行欺诈)或故障猜测(如电网波动)。

从表 4 中可以看出,在所有数据集上,Aaren 与 Transformer 的表现不相上下。

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

分析

最后,作家比较了 Aaren 和 Transformer 所需的资源。

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

内存复杂性:在图 5(左)中,作家比较了 Aaren 和 Transformer(利用 KV 缓存)在推理时的内存利用情况。可以看到,伴随 KV 缓存技术的利用,Transformer 的内存利用量呈线性增长。相比之下,Aaren 只利用恒定的内存,无论 token 数量如何增长,因此它的效率要高得多。

光阴复杂度:在图 5(右图)中,作家比较了 Aaren 和 Transformer(利用 KV 缓存)按顺序处理一串 token 所需的累计光阴。对于 Transformer,累计较量争论量是 token 数的二次方,即 O (1 + 2 + … + N) = O (N^2 )。相比之下,Aaren 的累计较量争论量是线性的。在图中,可以看到模型所需的累计光阴也是类似的结果。具体来说,Transformer 所需的累计光阴呈二次增长,而 Aaren 所需的累计光阴呈线性增长。

参数数量:由于要进修初始隐藏状态 q,Aaren 模块必要的参数略多于 Transformer 模块。不过,由于 q 只是一个向量,因此差别不大。通过在同类模型中进行实证测量,作家发现 Transformer 利用了 3, 152, 384 个参数。相比之下,等效的 Aaren 利用了 3, 152, 896 个参数,参数增加量仅为 0.016%—— 对于内存和光阴复杂性的显著差异来说,这只是微不足道的代价。

给TA打赏
共{{data.count}}人
人已打赏
理论

准确猜测药物-靶点相互作用,江南大学提出深度进修融合GNN新法子MINDG

2024-5-24 19:52:00

理论

只需单卡RTX 3090,低比特量化训练就能实行LLaMA-3 8B全参微调

2024-5-25 18:22:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索