通义千问开源320亿参数模型,已实现7款大说话模型全开源

4月7日消息,阿里云通义千问开源320亿参数模型Qwen1.5-32B,可最大限度兼顾功能、效力和内存占用的均衡,为企业和开发者提供更高性价比的模型选择。目前,通义千问共开源了7款大说话模型,在海内外开源社区累计下载量突破300万。通义千问此前已开源5亿、18亿、40亿、70亿、140亿和720亿参数的6款大说话模型并均已升级至1.5版本,其中,几款小尺寸模型可便捷地在端侧部署,720亿参数模型则拥有业界领先的功能,多次登上HuggingFace等模型榜单。此次开源的320亿参数模型,将在功能、效力和内存占用之间实

4月7日消息,阿里云通义千问开源320亿参数模型Qwen1.5-32B,可最大限度兼顾功能、效力和内存占用的均衡,为企业和开发者提供更高性价比的模型选择。目前,通义千问共开源了7款大说话模型,在海内外开源社区累计下载量突破300万。

通义千问此前已开源5亿、18亿、40亿、70亿、140亿和720亿参数的6款大说话模型并均已升级至1.5版本,其中,几款小尺寸模型可便捷地在端侧部署,720亿参数模型则拥有业界领先的功能,多次登上HuggingFace等模型榜单。此次开源的320亿参数模型,将在功能、效力和内存占用之间实现更理想的均衡,例如,相比14B模型,32B在智能体场景下才能更强;相比72B,32B的推理成本更低。通义千问团队希望32B开源模型能为下游应用提供更好的解决方案。

通义千问开源320亿参数模型,已实现7款大说话模型全开源

基础才能方面,通义千问320亿参数模型在MMLU、GSM8K、HumanEval、BBH等多个测评中表现优异,功能接近通义千问720亿参数模型,远超其他300亿级参数模型。

通义千问开源320亿参数模型,已实现7款大说话模型全开源

Chat模型方面,Qwen1.5-32B-Chat模型在MT-Bench评测得分超过8分,与Qwen1.5-72B-Chat之间的差距相对较小。

通义千问开源320亿参数模型,已实现7款大说话模型全开源

多说话才能方面,通义千问团队选取了包括阿拉伯语、西班牙语、法语、日语、韩语等在内的12种说话,在考试、理解、数学及翻译等多个领域做了测评。Qwen1.5-32B的多说话才能只略逊于通义千问720亿参数模型。

通义千问开源320亿参数模型,已实现7款大说话模型全开源

给TA打赏
共{{data.count}}人
人已打赏
应用

效率翻倍!5 款不容错过的收费 AI 神器(三)

2024-4-8 8:48:48

应用

CVPR 2024|FairCLIP:首个多模态调理视觉言语大模型公平性钻研

2024-4-8 14:18:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索