谷歌 DeepMind 优化 AI 模型新思路,计算效率与推理能力兼得

谷歌 DeepMind 团队最新推出了“可微缓存增强”(Differentiable Cache Augmentation)的新方法,在不明显额外增加计算负担的情况下,可以显著提升大语言模型的推理性能。

谷歌 DeepMind 团队最新推出了“可微缓存增强”(Differentiable Cache Augmentation)的新方法,在不明显额外增加计算负担的情况下,可以显著提升大语言模型的推理性能。

项目背景

AI在线注:在语言处理、数学和推理领域,大型语言模型(LLMs)是解决复杂问题不可或缺的一部分。

计算技术的增强侧重于使 LLMs 能够更有效地处理数据,生成更准确且与上下文相关的响应,随着这些模型变得复杂,研究人员努力开发在固定计算预算内运行而不牺牲性能的方法。

优化 LLMs 的一大挑战是它们无法有效地跨多个任务进行推理或执行超出预训练架构的计算。

当前提高模型性能的方法涉及在任务处理期间生成中间步骤,但代价是增加延迟和计算效率低下。这种限制阻碍了他们执行复杂推理任务的能力,特别是那些需要更长的依赖关系或更高地预测准确性的任务。

项目介绍

“可微缓存增强”(Differentiable Cache Augmentation)采用一个经过训练的协处理器,通过潜在嵌入来增强 LLM 的键值(kv)缓存,丰富模型的内部记忆,关键在于保持基础 LLM 冻结,同时训练异步运行的协处理器。

谷歌 DeepMind 优化 AI 模型新思路,计算效率与推理能力兼得

整个流程分为 3 个阶段,冻结的 LLM 从输入序列生成 kv 缓存;协处理器使用可训练软令牌处理 kv 缓存,生成潜在嵌入;增强的 kv 缓存反馈到 LLM,生成更丰富的输出。

谷歌 DeepMind 优化 AI 模型新思路,计算效率与推理能力兼得

在 Gemma-2 2B 模型上进行测试,该方法在多个基准测试中取得了显著成果。例如,在 GSM8K 数据集上,准确率提高了 10.05%;在 MMLU 上,性能提升了 4.70%。此外,该方法还降低了模型在多个标记位置的困惑度。

谷歌 DeepMind 优化 AI 模型新思路,计算效率与推理能力兼得

谷歌 DeepMind 的这项研究为增强 LLMs 的推理能力提供了新的思路。通过引入外部协处理器增强 kv 缓存,研究人员在保持计算效率的同时显著提高了模型性能,为 LLMs 处理更复杂的任务铺平了道路。

相关资讯

消息称谷歌将推出明星网红 AI 聊天机器人,与 Meta 竞争

根据 The Information 爆料消息,谷歌正在基于明星和 YouTube 网红构建新的 AI 聊天机器人。这个想法并不是谷歌首创的,目前包括 Character.ai 这样的初创公司,以及像 Meta 这样的大公司已经推出了类似的产品。爆料称,谷歌的明星网红 AI 聊天机器人将由该公司的 Gemini 大语言模型提供支持。该公司还在尝试与有影响力的明星网红建立合作伙伴关系,并且还在开发一项功能,让人们只需描述自己的个性和外表就可以创建自己的聊天机器人,类似 Character.ai 的做法。IT之家还发现

谷歌Gemini1.5火速上线:MoE架构,100万上下文

今天,谷歌宣布推出 Gemini 1.5。Gemini 1.5 建立在谷歌基础模型开发和基础设施的研究与工程创新的基础上,包括通过新的专家混合 (MoE) 架构使 Gemini 1.5 的训练和服务更加高效。谷歌现在推出的是用于早期测试的 Gemini 1.5 的第一个版本 ——Gemini 1.5 Pro。它是一种中型多模态模型,针对多种任务的扩展进行了优化,其性能水平与谷歌迄今为止最大的模型 1.0 Ultra 类似,并引入了长上下文理解方面的突破性实验特征。Gemini 1.5 Pro 配备了 128000

谷歌最高优先级项目曝光:下一代AI搜索,誓要打败ChatGPT

岁末年初,科技公司似乎集体进入了反思阶段。过去一个月里,谷歌创始人拉里・佩奇、谢尔盖・布林与公司高管一直在开会,讨论新型 AI 聊天机器人。