用神经架构搜寻给LLM瘦身,模型变小,准确度有时反而更高
用神经架构搜寻给 LLM 瘦身,同等准确度可让 LLaMA2-7B 模型巨细降 2 倍。大型语言模型(LLM)的一个主要特点是「大」,也因此其训练和部署成本都相当高,如何在保证 LLM 准确度的同时让其变小就成了非常重要且有价值的研究课题。对此,研究社区已经提出了多种多样的方式,比如剪枝、稀疏化、量化等,它们的效果也各不一样。近日,Intel Labs 发布了一项研究成果,宣称可应用神经架构搜寻(…- 5
- 0
Intel Labs
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!