在人工智能领域,随着 OpenAI 的 o1和 DeepSeek 的 R1模型受到广泛关注,大语言模型(LLM)的推理能力和测试时扩展(TTS)技术引发了众多研究者的兴趣。然而,在处理复杂推理问题时,如何准确评估模型每一步的回答质量,依然是一个亟待解决的难题。为此,清华大学与上海 AI Lab 共同提出了生成式过程奖励模型(GenPRM),为过程监督推理提供了创新解决方案。
传统的过程奖励模型(PRM)虽然能够验证推理步骤的正确性,但由于采用了标量评分机制,难以捕捉深层次的逻辑错误。此外,PRM 的判别式建模方式也限制了其在测试阶段的扩展能力。为此,GenPRM 结合了生成式思维链推理和代码验证,并引入了测试时扩展机制,开辟了全新的研究方向。
图源备注:图片由AI生成,图片授权服务商Midjourney
GenPRM 的设计理念模拟了人类解题时的思维过程,允许模型在每一步推理时进行自然语言分析,这样不仅提高了透明性,还使得步骤评估更加可解释。同时,GenPRM 生成并执行与推理相关的 Python 代码,确保推理的可靠性。这种 “先解释、再验证” 的机制,不仅能够判断对错,还能提供具体的改进建议,显著提升了过程监督的效果。
令人惊讶的是,GenPRM 只用了23K 的训练样本,就取得了超过 GPT-4o 的优异表现。在 ProcessBench 等数学推理基准的测试中,1.5B 参数的 GenPRM 通过测试时扩展技术的加持,表现优异;而其7B 参数版本则成功超越了72B 参数的 Qwen2.5-Math-PRM,展现了强大的步骤级批评能力。
此外,GenPRM 的优势还体现在其高效的数据合成方法上。通过相对进步估计(RPE)和代码验证,GenPRM 生成了高质量的过程监督数据,大幅减少了对大量标注数据的需求。研究者们利用 QwQ-32B 模型合成数据,并通过共识过滤保留高质量样本,最终形成了这个仅有23K 的训练集。
未来,GenPRM 不仅能作为答案的验证器,也能够扮演 “教练” 的角色,通过反馈指导策略模型的迭代优化。这种 “生成 - 批评 - 反思” 的闭环为大语言模型的自我改进提供了全新的路径,未来也可能扩展到代码生成和多模态推理等领域。
项目地址:https://ryanliu112.github.io/GenPRM/