对比式非似然训练

像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍

除了分数,打出分数背后的理由对于大模型对齐更具价值。现有的大模型对齐方法包括基于示例的监督微调(SFT)和基于分数反馈的强化学习(RLHF)。然而,分数只能反应当前回复的好坏程度,并不能明确指出模型的不足之处。相较之下,我们人类通常是从语言反馈中学习并调整自己的行为模式。就像审稿意见不仅仅是一个分数,还包括许多接受或者拒绝的理由。那么,大语言模型能否也像人类一样利用语言反馈来改善自身呢?最近,香港中文大学和腾讯 AI Lab 的研究者们提出了一项名为对比式非似然训练(Contrastive Unlikelihood
  • 1