三个臭皮匠顶个诸葛亮?可能是真的,已证实混合多个小模型性能比肩GPT3.5

对模型参数量的迷信、执念也许可以放下了,混合多个小模型也是未来构造对话型 AI 的一个光明的方向。在对话型人工智能(AI)研究中,存在趋势即朝着开发参数更多的模型方向发展,如 ChatGPT 等为代表的模型。尽管这些庞大的模型能够生成越来越好的对话响应,但它们同时也需要大量的计算资源和内存。本文研究探讨的问题是:一组小模型是否能够协同达到与单一大模型相当或更好的性能? 本文介绍了一种创新而简单的方法:混合。作者展示了如果从一组小规模的对话型人工智能中随机选择回复,生成的对话型人工智能具有很强的性能和吸引力,可以胜过

对模型参数量的迷信、执念也许可以放下了,混合多个小模型也是未来构造对话型 AI 的一个光明的方向。

在对话型人工智能(AI)研究中,存在趋势即朝着开发参数更多的模型方向发展,如 ChatGPT 等为代表的模型。尽管这些庞大的模型能够生成越来越好的对话响应,但它们同时也需要大量的计算资源和内存。本文研究探讨的问题是:一组小模型是否能够协同达到与单一大模型相当或更好的性能? 

本文介绍了一种创新而简单的方法:混合。

作者展示了如果从一组小规模的对话型人工智能中随机选择回复,生成的对话型人工智能具有很强的性能和吸引力,可以胜过参数数量级大很多的系统。作者观察到混合模型似乎具有 “最优” 的特征,通过在对话历史上进行条件化响应,一个具有特定属性的单一模型能够学习其他系统的能力。可以为用户提供更引人入胜和多样化的回复和使用体验。

作者通过在 CHAI 平台上进行大规模 A/B 测试,证明了混合模型的有效性。在真实用户的测试中,包含三个 6-13B 参数 LLM 的混合模型,胜过了 OpenAI 的 175B + 参数 ChatGPT。并且混合模型的用户留存率显著高于基于 ChatGPT 的对话型人工智能,说明用户认为混合对话型人工智能更具吸引力、娱乐性和实用性,尽管混合模型仅需要消耗少量的推理成本和内存开销。

图片

论文:Blending Is All You Need: Cheaper, Better Alternative to Trillion-Parameters LLM

论文链接:https://arxiv.org/pdf/2401.02994.pdf

模型链接:https://huggingface.co/ChaiML

混合模型

对话型 AI

对话型人工智能的目标是设计一个能够生成引人入胜、富有娱乐性的对话系统,供人们进行交互。设 uk 表示用户的第 k 轮对话,其中每个用户轮次是一个单词序列,uk = (w (k) 1 . . . , w (k) |uk| )。同样地,设 rk 表示系统生成的第 k 个响应,也是一个单词序列,rk = (w (k) 1 , . . . , w (k) |rk| )。作为一种隐式语言模型,一个特定的对话型人工智能,参数化为 θ,在给定先前对话历史的情况下,建模预测下一个响应出现的概率。

图片

在训练过程中,系统隐式学习将更高的概率分配给流畅、引人入胜和高质量的响应。因此,可以通过从其分布中随机采样输出,无论是通过随机方法,还是通过像波束搜索这样的近似搜索过程。

图片

受 InstructGPT 的启发,最先进的对话型人工智能通常遵循三阶段的流程。首先,对预训练语言模型 (PrLM) 进行微调,该模型在相关的文本领域进行训练,例如,在设计引人入胜的聊天机器人时使用有趣的文学作品。其次,使用明确的人类反馈来训练奖励模型。最后,使用奖励模型改进原始的 PrLM,可以采用近端策略优化或者采用简单的拒绝抽样策略。

在开发特定的对话型人工智能时,存在许多设计选择,如基础 PrLM、用于微调的对话数据以及用于更新系统的人类反馈。人们可能期望不同的方法和训练数据能产生高度多样的系统,每个系统都展示出独特的优势和特征。然后,可以考虑如何将一组对话型人工智能组合起来,形成具有总体更好特性的系统。

集成

根据贝叶斯统计原理,分配给特定响应的概率可以被概念化为对所有合理的对话型人工智能参数取边际期望,

图片

在实践中,当只能访问有限的一组对话型人工智能系统 {θ1, θ2...θN} 时,可以将连续积分近似为离散求和。此外可以假设 PΘ(θ) 在这些系统上均匀分布,即 PΘ(θn) = 1/N,如果该集合包含性能相似的模型,这是一个有效的假设,可以得到下面的近似式:图片

混合

作者提出的方法目标是从真实的集成分布 (方程 8) 中近似抽样。为了实现这种近似,在每一轮对话混合模型都会随机 (均匀地) 选择生成当前响应的对话型人工智能 θ。这个过程在下面的算法 1 中有详细描述。需要注意的是,在对话过程中,特定对话型人工智能生成的响应是在先前选择的对话型人工智能生成的所有先前响应的条件下进行的。这意味着不同的对话型人工智能能够隐式地影响当前响应的输出。因此当前响应是个体对话型人工智能优势的混合,它们共同合作以创建整体更吸引人的对话。

图片

实验

对于在 Chai Research 平台上部署的每个对话型人工智能,作者根据 A/B 测试设置中的 (文章 4.2 节的公式 15) 计算每一天 k 的用户参与度。通过考虑第 20 天 (k=20),图 1 显示了混合模型、其组成的对话型人工智能以及 OpenAI 的 GPT-3.5 的参与度比例。作者观察到中等大小的对话型人工智能 (Pygmillion、Vicuna 和 ChaiLLM) 的参与度明显低于 GPT3.5,这是在预期内的,因为 GPT3.5 的参数数量要高一个数量级。然而,混合这三个基本对话型人工智能,混合模型的结果不仅比每个组成系统都具有更高的参与度,而且性能提升显著,以至于混合模型可以胜过 OpenAI 的 GPT3.5。与其他对话型人工智能相比,混合模型的成功也可以通过比较 k=20 的用户留存比 (文章 4.1 节的公式 10) 来计算,结果如图 1 所示。

图片

混合模型总共有 25 亿参数,而 OpenAI 有 1750 亿参数。此外,由于混合模型的响应是从单个对话型人工智能中随机抽样的,因此推理成本等同于单个 6B/13B 系统的成本。在图 2 和图 3 中,可以看出推理速度的显著差异,可以观察到混合模型在参与度和用户留存方面有显著的性能提升,而速度与小型对话型人工智能相当。这具有重要意义:与其扩大系统规模以提高质量,不如简单地混合多个较小的开源系统,而且在不增加任何推理成本的情况下,可以极大地改善用户的对话体验。这证明了在设计引人入胜且成功的对话型人工智能时,模型协作比简单的模型参数扩展更为重要。

图片

图片

作为客观比较,表 1 报告了单一指标摘要 (论文 3.3 节)。以 Pygmillion 为控制组,作者提供了测试相对于控制组的参与度比率指标∆α 和∆γ,以及测试相对于控制组的留存比率指标∆ζ 和∆β。混合模型具有最高的相对初始参与度,∆α,以及最佳的参与度比率衰减率,∆γ。尽管 Vicuna 的留存比率衰减率∆β 优于混合模型,但 Vicuna 的初始留存比率∆ζ 明显较低,说明 Vicuna 需要更长的时间来达到混合模型的留存分数 6,如前面图 2 和 3 所示。总体而言,很明显,混合模型通过协作多个较小的对话型人工智能,在提供比单个更大的对话型人工智能 (OpenAI 的 GPT3.5) 更高质量的对话方面是有效的。

图片

相关资讯

超越AlphaFold3,OpenAI投资的AI生物初创发布Chai-1,分子结构预测新SOTA

编辑 | ScienceAI近日,成立仅 6 个月的 AI 生物技术初创公司 Chai Discovery,发布用于分子结构预测的新型多模态基础模型 Chai-1,并附带了一份技术报告,比较了 Chai-1 与 AlphaFold 等模型的性能。Chai-1 可以统一预测蛋白质、小分子、DNA、RNA、共价修饰等,在与药物发现相关的各种任务中都达到 SOTA。公司联合创始人兼 CEO Joshua Meier 表示,Chai 的模型在测试的基准上表现更佳,成功率提升 10% 到 20%。他说:「例如,与 Alpha

万字长文:哥大CV博士总结五年读博生涯,即将入职新加坡国立大学任助理教授

在这篇文章中,哥伦比亚大学博士Mike Shou讲述了自己的五年读博经历,包括如何确定研究方向、如何确定单篇论文的选题、如何做报告、如何做出职业选择等,希望可以给正在读博或准备读博的你提供一些启发。作者 Mike 是 Facebook AI 研究科学家,他将加入新加坡国立大学 NUS,任助理教授、独立博导。他于哥伦比亚大学取得博士学位,方向为视频理解和生成。 他实验室正招收 2021 Fall PhD、访问博士生等。实验室网站:. 写在前面刚上大学时,听过不少学长学姐分享会;申请博士时,读了不少留学申请总结。都收获

让蒙娜丽莎唱饶舌,微软发布 VASA-1 模型:图 + 音频可生成短视频

微软亚洲研究院(Microsoft Research Asia)近日发表论文,介绍了全新的 VASA-1 模型,用户只需要提供一张静态肖像图片和一段语音音频片段,该模型就能自动让图片中的人物自动说话。 VASA-1 特别有趣的地方在于,它能够模拟自然的面部表情、各种情绪和唇部同步,最重要的是几乎没有人工痕迹,如果不细看很难发现。 研究人员承认,与所有其他模型一样,该模型目前还无法妥善处理头发等非刚性元素,但整体效果要比其它同类模型要更为优秀。研究人员还表示 VASA-1 支持离线 batch 处理模式下,以 45