【论文解读】System 2 Attention提高大语言模型客观性和事实性
一、简要介绍 本文简要介绍了论文“System 2 Attention (is something you might need too) ”的相干工作。基于transformer的大语言模型(LLM)中的软留神很容易将上下文中的不相干信息合并到其潜在的表征中,这将对下一token的生成产生不利影响。为了帮助纠正这些成绩,论文引入了System 2 Attention(S2A),它利用LLM的能力…- 13
- 0
论文解读
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!