腾讯携手创新“无监督前缀微调”技术:训练 tokens 最多减少 95%,提升 AI 推理效率

腾讯AI Lab与香港中文大学合作,提出“无监督前缀微调”(UPFT)方法,通过聚焦模型输出的前8至32个词元,显著提升大型语言模型的推理效率。该方法在多个推理基准测试中表现优异,减少训练和推理词元的同时提升准确率。#腾讯AI #语言模型 #UPFT

科技媒体 marktechpost 昨日(3 月 1 日)发布博文,报道称腾讯 AI Lab 携手香港中文大学,提出名为“无监督前缀微调”(UPFT)的创新方法,显著提升了大型语言模型的推理效率。

该方法无需处理完整的推理过程,只需关注模型输出的前 8 至 32 个词元(token),即可有效改进模型的推理能力。UPFT 抓住了不同推理路径中共同的关键早期步骤,在降低计算开销的同时,实现了推理性能的提升。

大型语言模型在语言理解和生成方面表现出色,但提升其推理能力仍然是一项挑战。传统微调方法依赖大量标注数据或复杂的拒绝采样,资源消耗巨大。UPFT 则另辟蹊径,通过聚焦模型输出的初始 tokens,解决了效率和对昂贵监督的依赖问题。

研究发现,针对同一问题,模型生成的各种推理路径的初始步骤往往高度相似,UPFT 正是基于这种“前缀自洽性”,无需完整推理轨迹或大量标注数据,仅使用这些初始标记进行训练。

腾讯携手创新“无监督前缀微调”技术:训练 tokens 最多减少 95%,提升 AI 推理效率

UPFT 采用贝叶斯推理原理,将正确推理的概率分解为“覆盖率”和“准确性”两部分。通过训练早期 tokens,UPFT 在探索多样化推理路径的同时,确保了结果的可靠性。实验表明,UPFT 可将训练中处理的 tokens 数量减少高达 95%,并显著降低时间和内存需求。

UPFT 在 GSM8K、MATH500、AIME2024 和 GPQA 等推理基准测试中表现优异。例如,在 Qwen2.5-Math-7B-Instruct 模型上,UPFT 在减少训练和推理 tokens 的同时,提升了平均准确率。在复杂推理任务中,UPFT 的性能提升尤为显著,表明早期推理步骤包含解决问题的关键信息。

腾讯携手创新“无监督前缀微调”技术:训练 tokens 最多减少 95%,提升 AI 推理效率

AI在线附上参考地址

  • The First Few Tokens Are All You Need: An Efficient and Effective Unsupervised Prefix Fine-Tuning Method for Reasoning Models

  • Tencent AI Lab Introduces Unsupervised Prefix Fine-Tuning (UPFT): An Efficient Method that Trains Models on only the First 8-32 Tokens of Single Self-Generated Solutions

相关资讯

NeurIPS 2023 Spotlight | 腾讯AI Lab绝悟新突破:在星际2灵活策略应对职业选手

近日,腾讯 AI Lab 的游戏 AI 团队宣布了其决策智能 AI "绝悟" 在《星际争霸 2》中的最新研究进展,提出一种创新的训练方法显著提升了 AI 的局内策略应变能力,使其在考虑了 APM 公平的对战环境中,与 3 位国内顶尖的神族职业选手各进行多达 20 局神族 vs 神族的对战,稳定地保持 50% 及以上的胜率。该成果已获 NeurIPS 2023 Spotlight 论文收录。实时策略游戏(RTS)以其复杂的游戏环境更贴近现实世界,一直是 AI 研究的焦点和挑战所在。《星际争霸 2》作为其中极具代表性的

专访腾讯AI Lab姚建华、杨帆:腾讯 AI Lab 为何瞄准单细胞蛋白质组学?

在生物医学研究的前沿领域,“单细胞蛋白质组学”是怎样的存在? 用一个比喻来说,它就像一把钥匙,能够开启细胞内部世界的大门,让我们得以窥见细胞如何通过蛋白质的相互作用来执行生命活动。 这一研究领域的突破,不仅能够推动科学界对生命过程的理解,也为精准医疗的实现奠定了基础。

不蒸馏 R1 也能超越 DeepSeek,上海 AI Lab 用 RL 突破数学推理极限

从 Qwen2.5-32B-Base 模型出发,仅通过微调和基于结果反馈的强化学习,在不蒸馏超大模型如 DeepSeek-R1 的情况下,就能超越 DeepSeek-R1-Distill-Qwen32B 和 OpenAI-O1 系列的超强数学推理性能。