模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

还有 10 个月,2024 年还有很多期待空间。在过去的 2023 年中,大型语言模型(LLM)在潜力和复杂性方面都获得了飞速的发展。展望 2024 年的开源和研究进展,似乎我们即将进入一个可喜的新阶段:在不增大模型规模的前提下让模型变得更好,甚至让模型变得更小。现在,2024 年的第一个月已经过去,也许是时候盘点一番新年首月进展了。近日,AI 研究者 Sebastian Raschka 发布了一份报告,介绍了四篇与上述新阶段有关的重要论文。它们的研究主题简单总结起来是这样:1. 权重均匀和模型混合可将多个 LLM

还有 10 个月,2024 年还有很多期待空间。

在过去的 2023 年中,大型语言模型(LLM)在潜力和复杂性方面都获得了飞速的发展。展望 2024 年的开源和研究进展,似乎我们即将进入一个可喜的新阶段:在不增大模型规模的前提下让模型变得更好,甚至让模型变得更小。

现在,2024 年的第一个月已经过去,也许是时候盘点一番新年首月进展了。近日,AI 研究者 Sebastian Raschka 发布了一份报告,介绍了四篇与上述新阶段有关的重要论文。它们的研究主题简单总结起来是这样:

1. 权重均匀和模型混合可将多个 LLM 组合成单个更好的模型,并且这个新模型还没有传统集成要领的典型缺陷,比如更高的资源需求。

2. 代理调优(proxy-tuning)技术可通过应用两个小型 LLM 来晋升已有大型 LLM 的本能,这个过程无需改变大模型的权重。

3. 通过将多个小型模块组合起来创建混合大师模型,可让所得 LLM 的效果和效率媲美甚至超越更大型的对应模型。

4. 预训练一个小型的 1.1B 参数的 LLM 可降低开发和运营成本,并能为教育和研究应用带来新的可能性。

最后他总结了 1 月份的多篇有趣研究,以下是机器之心对原文不改变原义的编译与整理。

1.WARM:On the Benefits of Weight Averaged Reward Models

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文地点:https://arxiv.org/abs/2401.12187

在这篇 1 月 22 日的论文《WARM: On the Benefits of Weight Averaged Reward Models》中,研究者提出了一种用于 LLM 赞美模型的权重均匀要领。这里的赞美模型是指在用于对齐的 RLHF 中应用的赞美模型。

何为权重均匀?因为用于 LLM 的权重均匀和模型混合可能会成为 2024 年最有趣的研究主题,在深入介绍这篇 WARM 论文之前,我们先来谈谈这个主题。

了解模型混合和权重均匀

模型混合和权重均匀并不是新思想,但却是目前最受瞩目的要领。它成为了 Open LLM 排行榜上占据主导地位的技术。下面我们简单讨论一下这两个概念。

权重均匀和模型混合都是将多个模型或检查点模型组合成单一实体。这有什么好处?类似于创建集成模型的概念,这种将多个模型组合成一个模型的思想可以晋升训练的收敛、晋升整体本能和晋升稳健性。需要强调的是,不同于传统的集成要领,模型混合和权重均匀会得到一个单一模型,而不是维护多个分立的模型,如下图所示。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                          权重均匀和模型混合(左)和多数投票(majority voting)等传统集成要领(右)

传统上讲,权重均匀涉及到将单个模型在训练过程中不同点的权重参数进行均匀。通常而言,这是在模型接近收敛的训练结束时完成的。这一技术的一种常见形式是随机权重均匀(SWA,Stochastic Weight Averaging)。这种要领是对一个初始较大的学习率进行衰减,而权重则在学习率衰减期间(仍然相对较高)在多轮迭代上进行均匀。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                        随机权重均匀(SWA)是在训练周期快结束时对模型的权重进行均匀。

由于模型的训练轨迹可能并不均匀,因此其策略是在训练快结束时计算模型的均匀,此时学习率较低,并且训练已接近收敛,如上图所示。

另一种要领是指数移动均匀(EMA,Exponentially Moving Average),其做法是通过指数级地降低旧状态的权重来计算权重的一个平滑化版本。

2022 年,最新权重均匀(LaWA,Latest Weight Averaging)表明,通过均匀最新的 k 个检查点的权重(每个权重都在 epoch 结束时获取),可在损失和准确度方面将训练过程加速多个 epoch。研究表明,这种技术能有效地用于 ResNet 视觉模型和 RoBERTa 语言模型。

然后到了 2023 年,论文《Early Weight Averaging Meets High Learning Rates for LLM Pre-training》探索了 LaWA 的一个修改版,其应用了更高的学习率,并且在训练期间会更早地在均匀检查点中开始。其研究者发现,这种要领能显著晋升标准 SWA 和 EMA 要领的本能。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向来自论文《Early Weight Averaging meets High Learning Rates for LLM Pre-training》的修改版 LaWA,论文地点:https://arxiv.org/abs/2306.03241

权重均匀的做法是将同一模型的多个检查点组合成单个模型,而模型混合则是将多个不同的已训练模型组合成单个模型。这些模型中的每一个都可能是独立训练的,并且可能基于不同的数据集或任务。

模型混合已有较长的历史,但最近一篇颇具影响力的 LLM 相关论文是《Model Ratatouille:Recycling Diverse Models for Out-of-Distribution Generalization》。(论文地点:https://arxiv.org/abs/2212.10445)

Model Ratatouille 背后的思想是复用多个同一基础模型在不同的多样性辅助任务上微调过的迭代版本,如下图所示。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                        通过 Model Ratatouille 实现模型混合,并且对比了其它微调策略,(OOD = 分布外 / 泛化)

细致来说,Model Ratatouille 要领可以总结成下图。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                        用于模型混合的 Model Ratatouille 要领

请注意,这样的整体思路也可用于 LoRA 适应器,如论文《LoraHub: Efficient Cross-Task Generalization via Dynamic LoRA Composition》展现的那样。(论文地点:https://arxiv.org/abs/2307.13269)

应用了权重均匀的赞美模型

讨论完了权重均匀和模型混合,下面我们回到近期新发布的论文《WARM:On the Benefits of Weight Averaged Reward Models》。

这项研究的主要目的是晋升用于 LLM 的 RLHF 对齐步骤。具体来说,研究者希望通过均匀微调后的赞美模型的权重来缓解 LLM 中的赞美骇入(reward hacking)问题。

赞美骇入是指 LLM 学会了操控或利用其赞美系统的漏洞来获得高分或赞美,而不是真正完成预期任务或实现基本目标。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                        权重均匀能让赞美建模更为稳健地应对赞美骇入问题

为了解决赞美骇入问题,WARM 论文提出通过权重均匀将 LLM 赞美模型组合到一起。相比于单个赞美模型,通过这个过程得到的混合版赞美模型获得了 79.4% 的胜率。

WARM 是如何发挥作用的?要领其实相当简单:类似于随机权重均匀,WARM 会对多个模型(这里是赞美模型)的权重进行均匀,如下图所示。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                   WARM 在 RLHF 过程中的应用方式概况。这里唯一的新东西是该要领应用了来自权重均匀的赞美模型,而不是训练单个赞美模型。

在此之前,我们已经讨论了一些权重均匀要领。那么 WARM 是如何对权重执行均匀以获得赞美模型呢?这里,和随机权重均匀一样,他们应用了一种简单的线性均匀。不过它们也有差别:其模型并不是采样于同一轨迹,而是基于预训练模型独立创建的,这一点和 Model Ratatouille 类似。另外,WARM 还应用了所谓的 Baklava 流程,可以沿微调轨迹进行采样。下图比较了这些差异。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                   不同的模型混合和均匀要领之间的比较

按照上述 WARM 流程并且均匀了 10 个赞美模型后,这些研究者发现了一种强化学习策略 —— 应用此策略,WARM 相对于单赞美模型的胜率为 79.4%,如下图所示。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                             在第 3000 步时,WARM 的表现超过了最佳的单赞美模型要领

总结

模型混合并不是一种新技术,但在 LLM 领域却是比较新的;考虑到 LLM 的高成本和资源需求,其就尤显潜力了。因此,利用多个在训练期间创建的已有 LLM(不做其它处理)的要领就尤其具有吸引力。另外,相对于传统的集成要领(需要同时运行多个模型),经过权重均匀得到的模型相对轻量,在推理时间的成本并不会超过单个模型。

展望未来,我认为 LLM 模型混合技术前景广阔。我也预计未来会出现更多创新性的模型混合方式。

2.Tuning Language Models by Proxy

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文地点:https://arxiv.org/abs/2401.08565

论文《Tuning Language Models by Proxy》提出了一种可用于晋升 LLM 的技术:proxy-tuning。这里我们将其译为「代理调优」。这种要领可以在某种程度上不改变权重的前提下微调 LLM。

代理调优是通过调整目标 LLM 的 logit 来实现的,这是解码阶段中一个非常简单的过程。具体来说,它需要计算一个较小基础模型和一个已微调模型之间的 logit 之差。然后再将这个差添加到目标模型的 logit。Logit 是指模型最终层生成的原始输出值。这些 logit 表示 LLM 的每个可能的输出 token 的非归一化分数,之后这些分数会通过 softmax 等函数转换成概率。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                         代理调优图示

为了更清晰地说明这一概念,我们可以假设我们想要晋升大型目标模型 M1(比如 Llama 2 70B)的目标函数结果。该过程涉及两个较小的模型:一个小型基础模型(M2),比如 Llama 2 7B;一个经过微调的基础模型(M3),比如 Llama 2 7B Chat。

那么如何实现我们想要的增强呢?其实就是将这些较小模型的预测结果(logit)之差用于目标模型 M1。晋升后的目标模型 M1* 的输出 logit 是这样计算的:M1*(x) = M1 (x) + [M3 (x) – M2 (x)]。在得到了这些输出 logit 之后,再应用 softmax 函数将它们转换成概率。然后再应用这些概率来采样得到最终输出结果,也就是生成的文本;这个过程可以应用核采样或 top-k 解码等技术。

代理调优的实践效果如何?

他们的实验得到了让人印象深刻的积极结果。这些研究者在三个不同场景中实验了这种要领:

1. 指令微调:晋升 Llama 2 70B 基础模型,使之能比肩 Llama 2 70B Chat 模型。

2. 领域适应:晋升 Llama 2 70B 基础模型的代码能力,目标是达到 CodeLlama 70B 的代码水平。

3. 针对特定任务进行微调:晋升 Llama 2 70B 基础模型执行特定任务的能力,比如 TriviaQA 或数学问题。

可以观察到,在每种场景中,相较于原始基础模型,新要领都能带来显著晋升。举个例子,下表重点对比了 Llama 70B Base 和 Chat 模型。但是,这篇论文还为 CodeLlama 提供了额外的基准。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                       来自代理调优论文的结果图表

可以看到,根据上图所示的基准结果,经过代理调优的 70B Llama 2 模型的表现优于 70B 基础模型,并且几乎能媲美直接微调的 Llama 70B Chat 模型。

实践方面的考虑

这种要领可以用于晋升研发效率:开发新的训练或模型晋升要领并在较小模型上测试它们以降低成本。然后,再扩展这些要领,使之可用于晋升更大型的基础模型,同时无需训练大模型。

但是,如果要在真实世界中实际应用这些要领,仍然需要用到三种不同的模型:

1. 一个大型通用基础模型

2. 一个较小的通用模型

3. 一些针对特定用例或客户需求定制化的小型专用模型

因此,我们为什么还要选择这种要领呢,毕竟已经有 LoRA(低秩适应)这种更好的要领了 ——LoRA 不需要较小的通用模型 ,也可以应用一组小型 LoRA 矩阵替代多个小型专用模型 。

这里就需要说明代理调优要领的两个潜在优势:

在某些场景中,代理调优的表现可能优于 LoRA,尽管还没人对它们直接进行比较。

当大型基础模型是「黑箱」时,也就是内部权重不可用时,这种要领也可用。

但是,问题也依然存在:较小模型必须与大型目标模型有一样的词表。(理论上讲,如果有人知道 GPT-4 的词表并且可以访问其 logit 输出,他们就可以应用此要领创建专用型的 GPT-4 模型。)

3.Mixtral of Experts

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文地点:https://arxiv.org/abs/2401.04088

Mixtral 8x7B 论文终于来了!(机器之心也在该论文发布时第一时间进行了报道,参阅《Mixtral 8x7B 论文终于来了:架构细节、参数量首次曝光》)Mixtral 8x7B 是一种稀疏的混合大师(稀疏 MoE)模型,目前是本能最佳的大型语言模型(LLM)之一,同时也是最受人关注的一种公开可用的 LLM。根据原论文,该模型的代码库基于 Apache 2 许可证发布,可以免费用于学术和商业目的。

MoE 是什么?MoE 是混合大师(Mixture of Experts)的缩写,这是一类将多个较小「大师」子网络组合起来得到的集成模型。每个子网络都负责处理不同类型的任务。通过应用多个较小的子网络,而不是一个大型网络,MoE 可以更高效地分配计算资源。这让它们可以更有效地扩展,并可望在更广泛的任务上实现更好的本能。

在下面将讨论的论文《Mixtral of Experts》中,研究者讨论了构建 Mixtral 8x7B 的要领。这个模型的表现能比肩大得多的 Llama 2 70B 模型。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                         Mixtral 8x7B 能在许多基准上比肩甚至超越大得多的 Llama 2 70B 模型

Mixtral 架构

Mixtral 8x7B 的关键思想是用 8 个大师层替换 Transformer 架构中的每个前馈模块,如下图所示。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                          Transformer 架构,来自论文《Attention Is All You Need》

前馈模块本质上就是一个多层感知器。应用类似 PyTorch 的伪代码,看起来就会是这样:

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

此外,还有一个路由模块,其作用是将每个 token 嵌入重定向到 8 个大师前馈模块。然后再将这 8 个大师前馈层的输出求和汇总,如下图所示。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                           论文《Mixtral of Experts》中对 MoE 模块的解释

如果用数学表示,当有 8 个大师 {E_1, E_2, …, E_8})时,则可以写成如下形式:

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

这里,G 表示路由(即门控网络),E_i 表示大师模块的输出。根据上面的公式,MoE 层会计算大师输出 E_i 的加权和,其中权重是由门控网络 G (x)_i 为每个输入 x 提供的。

乍一看,Mixtral 似乎只是通过这些大师(前馈)模块为 LLM 添加额外的参数,以表示一种加权集成要领。但其实它还有另一种调整:Mixtral 是一种稀疏 MoE,这就意味着每个输入只会应用这些大师中的一部分:

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

在 Mixtral 8x7B 这个特例中,作者设定了 TopK=2,也就是一次仅应用 2 个大师。因此,根据上式,G (x) 的输出可能看起来是这样的:[0, 0, 0.63, 0, 0, 0.37, 0, 0]。这表示第三个大师为输出贡献了 63%,而第六个大师则贡献了 37%。

模型大小

Mixtral 8x7B 如何得名的?稀疏 MoE 模型的实际大小如何?8x 是指应用了 8 个大师子网络。7B 是指其组合了 Mistral 7B 模块。但是,需要重点指出:Mixtral 的大小并不是 8x7B = 56B。7B 参数表示 Mistral 7B 模型的整体参数规模,而在 Mixtral 8x7B 中,大师层仅替换了前馈层而已。

总体而言,Mixtral 8x7B 有 47B 参数。这意味着 Mistral 7B 模型有 9B 个非前馈参数;有趣的是,LLM 中的大多数参数都包含在前馈模块中,而不是注意力机制中。

Mixtral 8x7B 总共有 47B 参数,明显少于 Llama 2 70B 等模型。此外,由于每个时间步骤仅有 2 个大师处于活动状态,因此对于每个输入 token,该模型仅应用 13B 参数。如此一来,它的效率就比常规的非 MoE 47B 参数模型高多了。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                          来自论文《Mixtral of Experts》

让大师专业化

有趣的问题来了:这些大师能否展现出任何特定于任务或 token 的模式?不幸的是,作者没能观察到特定于具体主题的专业性,如 GitHub、Arxiv、Mathematics、Wikipedia 等数据集。

但是,作者却观察到了一个有趣的现象:文本数据集中的连续 token 通常会被分配给同样的大师。此外,Python 代码中的缩进 token 经常被分配给同一大师,如下图所示。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                       来自论文《Mixtral of Experts》

(作者并未说明每个 token 的两个大师中哪个被标记了颜色,但我猜想他们总是标记权重更高的大师。)

总结

Mixtral 8x7B 有几个优点:公开可用、可比肩甚至超越 Llama 2 70B 等更大模型、以一种较新颖的方式应用稀疏 MoE 模块来构建 LLM。

它本能强大,参数效率高并且有能力处理长达 32k 的上下文窗口,因此很可能在可预见的未来(或至少在未来几个月)里成为一大颇具吸引力的模型。我相信 MoE 模型也会成为 2024 年大多数开源项目的一个重点关注领域,因此《Mixtral of Experts》值得关注。

但这篇论文也有个小问题:作者并未分享训练数据集的有关信息。但也可以理解,因为这样可以避免潜在的版权争议。

另外,如果作者能基于同一数据集比较一下 Mixtral 8x7B 和 Llama 2 70B 就更好了;但这类研究的成本很高。还有,我也想看看 Mixtral 8x7B 与以下两种假定的模型相比如何,因为这样可以直接对比 MoE 与非 MoE 要领的效果:

・Mistral 56B(更大的非 MoE 模型)

・Mistral 47B(与 Mixtral 8x7B 参数数量一样的非 MoE 模型)

还有一个有趣的事实:Brave 浏览器的 Leo 助理功能现在应用 Mixtral 8x7B 作为默认 LLM。)

4.TinyLlama:An Open-Source Small Language Model

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文地点:https://arxiv.org/abs/2401.02385

微软的 phi-2 在去年 12 月引起了不少关注,之后 TinyLlama 就成了小型 LLM 类别的新晋成员。TinyLlama 不仅小,仅有 1.1B 参数,而且还完全开源。这里,「开源」是指通过一个不受限的开源软件库提供训练代码和检查点模型。你可以访问其 GitHub 代码库:https://github.com/jzhang38/TinyLlama

小型 LLM(也常写成 SLM,即小型语言模型)为何如此吸引人?因为小型 LLM:

容易获取且成本低,这就意味着可以在资源有限的计算设备(比如笔记本电脑和 / 或小型 GPU)上运行它们。

开发和预训练成本更低 —— 这些模型仅需要相对少量的 GPU。

更容易针对目标任务定制化 —— 小模型通常可以仅在单个 GPU 上完成微调。

能效更高 —— 考虑到训练和运行大规模 AI 模型对环境的影响,这也是一个重点考虑因素。另一个考虑方面是在智能手机等便携式设备上部署 LLM 时的电池寿命问题。

对教育方面的应用很有价值 —— 小型 LLM 更容易掌控,因此更容易理解和调整。

TinyLlama 的本能

TinyLlama 的优势不仅是小和开源,而且在常识推理和问题求解基准上的表现也相当不错,胜过其它同等大小的开源模型。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                  TinyLlama 的本能表现

当然,TinyLlama 在这些基准上比不上更大型的模型,但由于它的所有代码都已开源,因此任何人都可以进一步研究和微调它。

TinyLlama 带来的想法

举个例子,从作者的训练过程可以得到一个颇具教育意义的有趣见解:在 1 万亿 token 上训练该模型 3 epoch(而不是 1 epoch)实际上是有用的,尽管这有违 Chinchilla 的缩放率。这些缩放率认为对于这样的模型大小,应该应用小得多的数据集。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                    来自论文《Training Compute-Optimal Large Language Models》

举个例子,如下图表所示,即使训练了多个 epoch,应用的数据都已重复,模型依然会继续晋升。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

                                            来自 TinyLlama 论文的图表,并且在其它 6 个基准上也有类似的趋势

研究在「过大」数据集上的行为或训练多个 epoch 的行为时,如果应用很大的模型,就会很困难。未来在 TinyLlama 上的微调实验可能还能得到一些有趣结果,值得期待。(早期实验表明,该模型目前落后于小型的 phi-2 模型,但其实 phi-2 模型依然比 TinyLlama 大 3 倍。

一月份其它有趣的研究论文

下面是一月份我看到的其它一些有趣论文。受限于篇幅,下面会用星号★标记我认为尤其有趣的论文。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:KVQuant:Towards 10 Million Context Length LLM Inference with KV Cache Quantization

论文地点:https://arxiv.org/abs/2401.18079

研究者提出了一种量化键 – 值缓存激活的要领,该要领可尽可能缓解困惑度指标劣化问题,并能在单个 A100 (80GB) GPU 上运行 Llama-7B 等模型同时还支持高达 100 万的上下文长度。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Rephrasing the Web:A Recipe for Compute and Data-Efficient Language Modeling

论文地点:https://arxiv.org/abs/2401.16380

作者提出应用经过阐释的网络文档来更高效地训练大型语言模型,这能在多种任务上实现更快的预训练,获得更优的本能,并能让我们更好地理解训练数据的组成结构对分布外本能的影响。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:MoE-LLaVA:Mixture of Experts for Large Vision-Language Models

论文地点:https://arxiv.org/abs/2401.15947

该论文提出了一种用于扩展大型视觉 – 语言模型的混合大师范式,能用更少的参数实现比肩更大模型的本能。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:EAGLE:Speculative Sampling Requires Rethinking Feature Uncertainty

论文地点:https://arxiv.org/abs/2401.15077

EAGLE 能加速 LLM 中的自回归解码,其要领是在次要的特征层级上进行处理,并整合未来的 token。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Multimodal Pathway:Improve Transformers with Irrelevant Data from Other Modalities

论文地点:https://arxiv.org/abs/2401.14405

这篇论文提出了 Multimodal Pathway(多模态通路)。该技术可以应用未配对的模态数据(比如音频)晋升视觉 Transformer 在另一特定模态(比如图像)上的本能,其在多种图像识别任务上都取得了显著的本能晋升。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Pix2gestalt:Amodal Segmentation by Synthesizing Wholes

论文地点:https://arxiv.org/abs/2401.14398

Pix2gestalt 是一种用于零样本非模态图像分割的框架,其利用了扩散模型和一个精心合成的数据集来估计部分遮挡目标的形状和外观。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Rethinking Patch Dependence for Masked Autoencoders

论文地点:https://arxiv.org/abs/2401.14391

交叉注意力掩码式自动编码器是一种新式预训练框架,它仅应用掩蔽 token 和可见 token 之间的交叉注意力来重建被遮掩的图块,其效率和质量都胜过传统的掩码式自动编码器。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:SpacTor-T5:Pre-training T5 Models with Span Corruption and Replaced Token Detection

论文地点:https://arxiv.org/abs/2401.13160

这篇论文提出了 SPACTOR,这是一种用于训练 LLM 的要领,其将 span 损坏和 token 替换检测组合成了一个两阶段课程;其靠少 50% 的预训练迭代次数和少 40% 的计算成本实现了与标准要领一样的本能。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:MambaByte:Token-free Selective State Space Model

论文地点:https://arxiv.org/abs/2401.13660

MambaByte 是一种无 token 语言 Mamba 选择性状态空间模型,其直接操作原始字节,可避免子词 token 化偏差。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Spotting LLMs With Binoculars:Zero-Shot Detection of Machine-Generated Text

论文地点:https://arxiv.org/abs/2401.12070

Binoculars 这种新要领可以不应用训练数据来更准确地检测 LLM 生成的文本,其要领是通过简单的计算来对比两个预训练的 LLM。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:WARM:On the Benefits of Weight Averaged Reward Models

论文地点:https://arxiv.org/abs/2401.12187

这项研究解决了与人类偏好对齐的 LLM 中的赞美崩溃问题,其要领是通过均匀微调后的赞美模型权重来执行强化学习。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:SpatialVLM:Endowing Vision-Language Models with Spatial Reasoning Capabilities

论文地点:https://arxiv.org/abs/2401.12168

这项研究可晋升视觉 – 语言模型(VLM)的 3D 空间推理能力 —— 作者开发了一个互联网规模的空间推理数据集并基于其训练了一个 VLM。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Knowledge Fusion of Large Language Models

论文地点:https://arxiv.org/abs/2401.10491

研究者提出了一种知识混合要领,可将多个不同 LLM 组合成一个统一模型,其本能优于单个模型、传统集成要领和其它模型混合要领。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:VMamba:Visual State Space Model

论文地点:https://arxiv.org/abs/2401.10166

这项研究将视觉 Transformer 的全局感受野和动态权重与 CNN 的线性复杂性组合起来,得到了一个名为 VMamba 的新架构,该架构在更高的图像分辨率上表现尤其出色。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Self-Rewarding Language Models

论文地点:https://arxiv.org/abs/2401.10020

应用 LLM 作为评判员(LLM-as-a-Judge)的要领在训练期间执行自我赞美,可以晋升 LLM 遵循指令和建模赞美的能力;这表明,除了基于人类偏好进行的常规训练,还有可能让模型持续进行自我晋升。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:DiffusionGPT:LLM-Driven Text-to-Image Generation System

论文地点:https://arxiv.org/abs/2401.10061

DiffusionGPT 是一种文本到图像生成框架,其应用 LLM 解析不同的 prompt,并可从一个思维树(Tree-of-Thought)结构(同样也整合了人类反馈)中选择最合适的生成模型。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:ReFT:Reasoning with Reinforced Fine-Tuning

论文地点:https://arxiv.org/abs/2401.08967

这篇论文提出了 Reinforced FineTuning (ReFT,强化微调)技术,可晋升大型语言模型在数学问题求解等任务上的推理能力。其做法是将监督式微调与强化学习组合起来应用,可在不应用额外训练数据的前提下取得优于标准微调的结果。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:RAG vs Fine-tuning:Pipelines, Tradeoffs, and a Case Study on Agriculture

论文地点:https://arxiv.org/abs/2401.08406

尽管 RAG(检索增强式生成)和微调谁更胜一筹的争论一直存在,但这篇论文却表明可将 RAG 和微调组合起来,晋升累积准确度(背景是农业应用)。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Code Generation with AlphaCodium:From Prompt Engineering to Flow Engineering

论文地点:https://arxiv.org/abs/2401.08500

AlphaCodium 是一种迭代式的、基于测试的要领,可用于 LLM 的代码生成任务,其可凭借更低的计算负载超过之前的要领。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Scalable Pre-training of Large Autoregressive Image Models

论文地点:https://arxiv.org/abs/2401.08541

受 LLM 预训练的启发,该论文研究了以自回归方式(无监督)来预训练视觉模型。结果证明模型本能会随模型大小和数据量扩展,并且其在 ImageNet-1k 上取得了亮眼的结果(而且还未饱和)。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Tuning Language Models by Proxy

论文地点:https://arxiv.org/abs/2401.08565

在适应大型语言模型方面,代理调优是一种能高效利用资源的要领。其做法是应用一个较小的已微调模型来修改其预测结果。该要领在实验中表现接近直接微调要领,甚至在专有模型上也是如此。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:An Experimental Design Framework for Label-Efficient Supervised Finetuning of Large Language Models

论文地点:https://arxiv.org/abs/2401.06692

应用 LLM 的监督式微调中的实验设计技术(选取信息量最大的样本进行标注以最大化效率),研究者将标注成本降低了 50%(相比于随机采样)。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:A Closer Look at AUROC and AUPRC under Class Imbalance

论文地点:https://arxiv.org/abs/2401.06091

这篇论文挑战了机器学习领域一个广被认可的信念:对于类别不平衡的二元分类问题,精度召回曲线下面积(AUPRC)优于接收者操作特征下面积(AUROC)。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:The Unreasonable Effectiveness of Easy Training Data for Hard Tasks

论文地点:https://arxiv.org/abs/2401.06751

作者发现,模型通常能够很好地从简单数据泛化到困难数据。他们指出在更简单数据上进行训练会更高效。他们应用多达 700 亿参数的模型在多个问答数据集上实验验证了这一点。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Sleeper Agents:Training Deceptive LLMs that Persist Through Safety Training

论文地点:https://arxiv.org/abs/2401.05566

这项研究调查了 LLM 学习欺骗行为的可能性,并发现标准的安全训练技术无法有效地移除这些持续存在的欺骗性策略。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Transformers are Multi-State RNNs

论文地点:https://arxiv.org/abs/2401.06104

这项研究表明,最初被认为与循环神经网络(RNN)不同的仅解码器 Transformer 可被视为具有无限隐藏状态大小的无限多状态 RNN。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:RoSA:Accurate Parameter-Efficient Fine-Tuning via Robust Adaptation

论文地点:https://arxiv.org/abs/2401.04679

这项研究提出了一种新的用于 LLM 的参数高效型微调要领 RoSA。其做法是在固定的预训练权重上训练低秩和高度稀疏的组件,这样得到的效果优于 LoRA 等现有要领。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:A Minimaximalist Approach to Reinforcement Learning from Human Feedback

论文地点:https://arxiv.org/abs/2401.04056

该论文提出了自我对弈偏好优化(SPO),这是一种简单却有效的强化学习算法,可替代 RLHF 但不需要赞美模型。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:MoE-Mamba:Efficient Selective State Space Models with Mixture of Experts

论文地点:https://arxiv.org/abs/2401.04081

该论文提出将 Mamba 等状态空间模型与混合大师(MoE)组合起来,这样得到的 MoE-Mamba 模型在效率和有效性上既优于标准的 Mamba 结构的状态空间模型,也胜过一个 Transformer-MoE 基准模型。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Soaring from 4K to 400K:Extending LLM’s Context with Activation Beacon

论文地点:https://arxiv.org/abs/2401.03462

研究者提出通过激活信标(activation beacon)来扩展 LLM 的上下文窗口。所谓的激活信标是指添加到输入上下文中的激活的压缩状态。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Denoising Vision Transformers

论文地点:https://arxiv.org/abs/2401.02957

作者发现,视觉 Transformer(ViT)中常见的网格状伪影是由输入阶段的位置嵌入造成的。他们提出了一种去噪视觉 Transformer,可从现有 ViT 提取出净化后的特征。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:DeepSeek LLM:Scaling Open-Source Language Models with Longtermism

论文地点:https://arxiv.org/abs/2401.02954

DeepSeek LLM 有 7B 和 67B 两种配置,其训练应用了一个 2 万亿 token 的数据集。该研究优化了 Chinchilla 缩放率并且表现优于 LLaMA-2 70B 和 GPT-3.5 等模型。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Blending Is All You Need:Cheaper, Better Alternative to Trillion-Parameters LLM

论文地点:https://arxiv.org/abs/2401.02994

这篇论文提出了 Blending。该要领可从多个更小的聊天 AI 模型随机选取响应。结果表明组合应用中等大小的模型(6B/13B)可以达到或超过 ChatGPT(参数超过 175B)等更大型模型的表现。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:LLM Augmented LLMs:Expanding Capabilities through Composition

论文地点:https://arxiv.org/abs/2401.02412

CALM(增强语言模型的组合要领)是将础 LLM 和专业 LLM 组合到一起,其应用了交叉注意力来晋升在新任务上的表现(比如资源很少的语言的翻译和代码生成任务),这个过程仅需极少量的额外参数和数据。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:LLaMA Pro:Progressive LLaMA with Block Expansion

论文地点:https://arxiv.org/abs/2401.02415

该论文提出了一种用于 LLM 的后预训练要领,将 Llama 7B 转变为 Llama Pro-8.3B。该要领可扩展 Transformer 模块,以晋升其在编程和数学等领域的表现,同时还不会忘记以前的知识。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:A Mechanistic Understanding of Alignment Algorithms:A Case Study on DPO and Toxicity

论文地点:https://arxiv.org/abs/2401.01967

该研究探索了直接偏好优化(DPO)算法如何通过降低有害性来将 GPT2-medium 等预训练模型与用户偏好对齐,其中揭示出它会绕过而不是移除预训练功能。该研究还给出了一种将模型恢复到其原始有毒行为的要领。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:LLaMA Beyond English:An Empirical Study on Language Capability Transfer

论文地点:https://arxiv.org/abs/2401.01055

该论文探究了如何将 Llama 等 LLM 的能力迁移用于非英语任务 —— 用不到 1% 的预训练数据就可以实现与当前最佳模型相当的本能。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models

论文地点:https://arxiv.org/abs/2401.01335

这篇论文提出了 Self-Play fIne-tuNing (SPIN,自我博弈微调)。该要领采用了一种自我博弈机制,让 LLM 可以生成并优化自己的训练数据,从而无需任何额外的人类标注数据便能晋升 LLM。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:LLM Maybe LongLM:Self-Extend LLM Context Window Without Tuning

论文地点:https://arxiv.org/abs/2401.01325

这篇论文提出了一种非常简单的技术(只有 4 行代码),无需任何微调便能扩展 LLM 的上下文处理能力。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:A Comprehensive Study of Knowledge Editing for Large Language Models

论文地点:https://arxiv.org/abs/2401.01286

该论文讨论了如何让 LLM 保持信息更新,其中回顾点评了多种知识编辑技术(应用外部知识、将知识混合到模型中、编辑内部知识)并提出了一个新的 KnowEdit 基准。

模型混合、混合大师、更小的LLM,几篇论文看懂2024年LLM发展方向

论文题目:Astraios:Parameter-Efficient Instruction Tuning Code Large Language Models

论文地点:https://arxiv.org/abs/2401.00788

这篇论文评估了不同的全微调和参数高效型微调技术,并且发现全微调通常本能表现最佳,而 LoRA 通常能在成本和本能之间取得最好的平衡。

原文链接:https://magazine.sebastianraschka.com/p/research-papers-in-january-2024

给TA打赏
共{{data.count}}人
人已打赏
应用

AI 视频新王者诞生!一文盘点 Sora 模型 14 项功效特点!

2024-2-22 8:51:19

应用

爆火Sora背后的手艺,一文综述集中模型的最新发展方向

2024-2-22 10:53:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索