重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了

反转 Transformer,变成 iTransformer。Transformer 在工夫序列猜测中出现了强大能力,可以描述成对依赖关系和提取序列中的多层次表示。然而,研究人员也质疑过鉴于 Transformer 的猜测器的有效性。这种猜测器通常将相同工夫戳的多个变量嵌入到不可区分的通道中,并对这些工夫 token 进行关注,以捕捉工夫依赖性。考虑到工夫点之间的数字关系而非语义关系,研究人员发现,可追溯到统计猜测器的简单线性层在功能和效率上都超过了复杂的 Transformer。同时,确保变量的独立性和行使互信息

反转 Transformer,变成 iTransformer。

Transformer 在工夫序列猜测中出现了强大能力,可以描述成对依赖关系和提取序列中的多层次表示。然而,研究人员也质疑过鉴于 Transformer 的猜测器的有效性。这种猜测器通常将相同工夫戳的多个变量嵌入到不可区分的通道中,并对这些工夫 token 进行关注,以捕捉工夫依赖性。考虑到工夫点之间的数字关系而非语义关系,研究人员发现,可追溯到统计猜测器的简单线性层在功能和效率上都超过了复杂的 Transformer。同时,确保变量的独立性和行使互信息越来越受到最新研究的重视,这些研究明确地建立了多变量相关性模型,以实现精确猜测,但这一目标在不颠覆常见 Transformer 架构的情况下是难以实现的。

考虑到鉴于 Transformer 的猜测器的争议,研究者们正在思考为什么 Transformer 在工夫序列猜测中的表现甚至不如线性模型,而在许多其他领域却发挥着主导作用。

近日,来自清华大学的一篇新论文提出了一个不同的视角 ——Transformer 的功能不是固有的,而是由于将架构不当地应用于工夫序列数据造成的。

重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了

论文地址:https://arxiv.org/pdf/2310.06625.pdf

鉴于 Transformer 的猜测器的现有结构可能并不适合多变量工夫序列猜测。如图 2 左侧所示,同一工夫步长的点基本上代表了完全不同的物理意义,但测量结果却不一致,这些点被嵌入到一个 token 中,多变量相关性被抹去。而且,在现实世界中,由于多变量工夫点的局部感受野和工夫戳不对齐,单个工夫步形成的标记很难揭示有益信息。此外,虽然序列变化会受到序列顺序的极大影响,但在工夫维度上却没有适当地采用变体注意力体制。因此,Transformer 在捕捉基本序列表征和描绘多元相关性方面的能力被削弱,限制了其在不同工夫序列数据上的能力和泛化能力。

重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了

关于将每个工夫步的多变量点嵌入一个(工夫)token 的不合理性,研究者从工夫序列的反向视角出发,将每个变量的整个工夫序列独立嵌入一个(变量)token,这是扩大局部感受野的 patching 的极端情况。通过颠倒,嵌入的 token 聚集了序列的全局表征,可以更加以变量为中心,更好地行使注意力体制进行多变量关联。同时,前馈网络可以熟练地学习任意回溯序列编码的不同变量的泛化表征,并解码以猜测未来序列。

研究者认为 Transformer 对工夫序列猜测并非无效,而是使用不当。在文中,研究者重新审视了 Transformer 的结构,并提倡将 iTransformer 作为工夫序列猜测的基本支柱。他们将每个工夫序列嵌入为变量 token,采用多变量相关性关注,并使用前馈网络进行序列编码。实行结果表明,本文所提出的 iTransformer 在图 1 所示的实际猜测基准上达到了 SOTA 水准,并出人意料地解决了鉴于 Transformer 的猜测器的痛点。

重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了

总结来说,本文的贡献有以下三点:

研究者对 Transformer 的架构进行了反思,发现原生 Transformer 组件在工夫序列上的能力尚未得到充分开发。

本文提出的 iTransformer 将独立工夫序列视为 token,通过自注意力捕捉多变量相关性,并行使层归一化和前馈网络模块学习更好的序列全局表示法,用于工夫序列猜测。

通过实行,iTransformer 在真实世界的猜测基准上达到了 SOTA。研究者分析了反转模块和架构选择,为未来改进鉴于 Transformer 的猜测器指明了方向。

iTransformer

在多变量工夫序列猜测中,给定历史观测:

重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了

用 T 个工夫步长和 N 个变量,研究者猜测未来的 S 个工夫步长:重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了。为方便起见,表示为重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了为工夫步 t 同时记录的多元变量,重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了为每个变量由 n 索引的整个工夫序列。值得注意的是,在现实世界中,由于监视器的系统延迟和松散组织的数据集,重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了可能不包含本质上相同工夫戳的工夫点。

重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了的元素可以在物理测量和统计分布中彼此不同,变量重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了通常共享这些数据。

本文所提出架构配备的 Transformer 变体,称为 iTransformer,基本上没有对 Transformer 变体提出更具体的要求,只是注意力体制应适用于多元相关性建模。因此,一组有效的注意力体制可以作为插件,降低变量数量增加时关联的复杂性。

图 4 中所示的 iTransformer 行使了更简单的 Transformer 纯编码器架构,包括嵌入、投影和 Transformer 块。

重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了

实行及结果

研究者在各种工夫序列猜测应用中对所提出的 iTransformer 进行了全面评价,考证了所提出框架的通用性,并进一步深入研究了针对特定工夫序列维度反转 Transformer 组件职责的效果。

研究者在实行中广泛纳入了 6 个真实世界数据集,包括 Autoformer 使用的 ETT、天气、电力、交通数据集、LST5 Net 提出的太阳能数据集以及 SCINet 评价的 PEMS 数据集。更多关于数据集的信息,请阅读原文。

猜测结果

如表 1 所示,用红色表示最优,下划线表示最优。MSE/MAE 越低,猜测结果越准确。本文所提出的 iTransformer 实现了 SOTA 功能。原生 Transformer 组件可以胜任工夫建模和多元关联,所提出的倒排架构可以有效解决现实世界的工夫序列猜测场景。

重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了

iTransformer 通用性

研究者将该框架应用于 Transformer 及其变体来评价 iTransformers,这些变体通常解决了 self-attention 体制的二次复杂性问题,包括 Reformer、Informer、Flowformer 和 FlashAttention。研究者发现了简单的颠倒视角可以提高鉴于 Transformer 的猜测器的功能,从而提高效率、泛化未见变量并更好地行使历史观测数据。

表 2 对 Transformers 和相应的 iTransformers 进行了评价。值得注意的是,该框架持续改进了各种 Transformer。总体而言,Transformer 平均提升了 38.9%,Reformer 平均提升了 36.1%,Informer 平均提升了 28.5%,Flowformer 平均提升了 16.8%,Flashformer 平均提升了 32.2%。

此外,由于颠倒结构在变量维度上采用了注意力体制,因此引入具有线性复杂性的高效注意力从根本上解决了因 6 个变量而产生的效率问题,这一问题在现实世界的应用中十分普遍,但对于 Channel Independent 来说可能会消耗资源。因此,iTransformer 可广泛应用于鉴于 Transformer 的猜测器。

重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了

为了考证假设,研究者将 iTransformer 与另一种泛化策略进行了比较:Channel Independent 强制采用一个共享 Transformer 来学习所有变体的模式。如图 5 所示, Channel Independent(CI-Transformers)的泛化误差可能会大幅增加,而 iTransformer 猜测误差的增幅要小得多。

重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了

由于注意力和前馈网络的职责是颠倒的,图 6 中评价了随着回视长度的增加,Transformers 和 iTransformer 的功能。它考证了在工夫维度上行使 MLP 的合理性,即 Transformers 可以从延长的回视窗口中获益,从而获得更精确的猜测。

重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了

模型分析

为了考证 Transformer 组件的合理性,研究者进行了详细的消融实行,包括替换组件(Replace)和移除组件(w/o)实行。表 3 列出了实行结果。

重新审视Transformer:颠倒更有效,真实世界猜测的新SOTA出现了

更多详细内容,请参考原文。

给TA打赏
共{{data.count}}人
人已打赏
应用

给大模型评分的基准靠谱吗?Anthropic来了次大评价

2023-11-6 11:27:00

应用

OpenAI首届开发者大会被人提前「掀底牌」,全新ChatGPT原型Gizmo大曝光

2023-11-6 11:49:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索