13B模型全方位碾压GPT-4?这背后有什么猫腻
你的尝试集信息在训练扩散泄漏了吗?一个参数量为 13B 的模型竟然打败了顶流 GPT-4?就像下图所展示的,并且为了确保结果的有效性,这项尝试还遵循了 OpenAI 的数据去污格式,更关键的是没有发现数据传染的证据。如果你细细查看图中的模型,发现只要带有「rephraser」这个单词,模型功能都比较高。这背后到底有何猫腻?原来是数据传染了,即尝试集信息在训练扩散遭到泄漏,而且这种传染还不易被检测到…- 2
- 0
改写样本(Rephrased Samples)
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!