谷歌 DeepMind 展示 GenRM 技术:微调 LLMs 作为奖励模型,提升生成式 AI 推理能力

谷歌 DeepMind 团队于 8 月 27 日在 arxiv 上发表论文,介绍展示了 GenRM 生成式验证器,创造性提出奖励模型,从而提升生成式 AI 推理能力。AI 行业内,目前提高大语言模型(LLMs)的主流做法就是 Best-of-N 模式,即由 LLM 生成的 N 个候选解决方案由验证器进行排序,并选出最佳方案。这种基于 LLM 的验证器通常被训练成判别分类器来为解决方案打分,但它们无法利用预训练 LLMs 的文本生成能力。DeepMind 团队为了克服这个局限性,尝试使用下一个 token 预测目标来

谷歌 DeepMind 团队于 8 月 27 日在 arxiv 上发表论文,介绍展示了 GenRM 生成式验证器,创造性提出奖励模型,从而提升生成式 AI 推理能力。

AI 行业内,目前提高大语言模型(LLMs)的主流做法就是 Best-of-N 模式,即由 LLM 生成的 N 个候选解决方案由验证器进行排序,并选出最佳方案。

这种基于 LLM 的验证器通常被训练成判别分类器来为解决方案打分,但它们无法利用预训练 LLMs 的文本生成能力。

DeepMind 团队为了克服这个局限性,尝试使用下一个 token 预测目标来训练验证器,同时进行验证和解决方案生成。

谷歌 DeepMind 展示 GenRM 技术:微调 LLMs 作为奖励模型,提升生成式 AI 推理能力

DeepMind 团队这种生成式验证器(GenRM),相比较传统验证器,主要包含以下优点:

无缝集成指令调整

支持思维链推理

通过多数投票利用额外的推理时间计算

在算法和小学数学推理任务中使用基于 Gemma 的验证器时,GenRM 的性能优于判别式验证器和 LLM-as-a-Judge 验证器,在使用 Best-of-N 解决问题的百分比上提高了 16-64%

谷歌 DeepMind 展示 GenRM 技术:微调 LLMs 作为奖励模型,提升生成式 AI 推理能力

谷歌 DeepMind 展示 GenRM 技术:微调 LLMs 作为奖励模型,提升生成式 AI 推理能力

据 Google DeepMind 报道,GenRM 相对于分类奖励模型的边标志着人工智能奖励系统的关键演化,特别是在其容量方面,以防止新模型学成到的欺诈行为。这一进步突出表明,迫切需要完善奖励模型,使人工智能输出与社会责任标准保持一致。

AI在线附上参考地址

Google DeepMind Researchers Propose GenRM: Training Verifiers with Next-Token Prediction to Leverage the Text Generation Capabilities of LLMs

Generative Verifiers: Reward Modeling as Next-Token Prediction

给TA打赏
共{{data.count}}人
人已打赏
应用

12个免费的AI抠图神器,助你成为P图大神!

2024-9-3 1:42:25

应用

OpenAI ChatGPT 被曝将新增 8 种新语音:更自然表达狗叫等动物声音

2024-9-3 7:17:40

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索