Aligner

无需RLHF显著提升GPT-4/Llama2性能,北大团队提出Aligner对齐新范式

对齐新范式:修正未对齐的答案比生成对齐的回答更容易。背景大语言模型(LLMs)虽展现出了强大的能力,但也可能产生不可预测和有害的输出,例如冒犯性回应、虚假信息和泄露隐私数据,给用户和社会造成伤害。确保这些模型的行为与人类意图和价值观相对齐,是一个紧迫的挑战。尽管基于人类反馈的强化学习(RLHF)提供了一种解决方案,但它面临复杂的训练架构、对参数的高敏感性,以及奖励模型在不同数据集上的不稳定性等多重挑战。这些因素导致 RLHF 技术实现难、奏效难、复现难。为了克服这些挑战,北京大学团队提出了一种新的高效对齐范式 ——
  • 1