两个小模型互相验证,直接比肩大模型?微软的rStar甚至没用CoT和微调
互相检查,让小模型也能解决大问题。众所周知,LLM 很强大,但执行复杂推理的能力还不够强。举个例子,在 GSM8K 数据集上,Mistral-7B 即使使用思维链(CoT)等技术,也只能达到 36.5% 的准确度。尽管微调确实也能有效地提升推理能力,但大多数 LLM 依靠的微调数据都是经过 GPT-4 等更强大模型蒸馏过的,甚至可能原本就是这些强大模型合成的。同时,研究者们也在积极开发一种能提供辅…- 16
- 0
Self-play muTuAl Reasoning
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!