微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了
大模型的效果好不好,有时候对齐调优很关键。但近来很多研究开始探索无微调的方式,艾伦人工智能研究所和华盛顿大学的研究者用「免调优」对齐新方式超越了利用监督调优(SFT)和人类反馈强化进修(RLHF)的 LLM 性能。我们知道,仅在无监督文本语料库上预训练的基本大语言模型(LLM)通常无法直接用作开源域的 AI 助手(如 ChatGPT)。因此,为了让这些基本的 LLM 成为有用且无害的 AI 助手,…- 4
- 0
URIAL
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!