​阿里通义千问推理大模型QwQ-32B勇夺全球开源社区榜榜首

在全球最大的 AI 开源社区 HuggingFace 的最新更新中,阿里巴巴近期推出的通义千问推理模型 QwQ-32B 成功夺得了大模型榜单的第一名。 这一模型在刚发布后便引起了广泛关注,超越了诸如微软的 Phi-4和 DeepSeek-R1等知名模型,展现出了强大的性能。 QwQ-32B 模型在数学、代码处理及通用能力等多个方面都取得了质的飞跃,特别是其参数数量较小的特点,使得其整体性能能够与 DeepSeek-R1相媲美。

在全球最大的 AI 开源社区 HuggingFace 的最新更新中,阿里巴巴近期推出的通义千问推理模型 QwQ-32B 成功夺得了大模型榜单的第一名。这一模型在刚发布后便引起了广泛关注,超越了诸如微软的 Phi-4和 DeepSeek-R1等知名模型,展现出了强大的性能。

QQ_1741327047359.png

QwQ-32B 模型在数学、代码处理及通用能力等多个方面都取得了质的飞跃,特别是其参数数量较小的特点,使得其整体性能能够与 DeepSeek-R1相媲美。此外,该模型的设计让用户能够在消费级显卡上实现本地部署,极大降低了模型应用的成本。这一突破为更多用户提供了更为便捷和经济的 AI 应用选择。

在多个权威基准测试中,QwQ-32B 模型的表现都非常优异,几乎完全超越了 OpenAI 的 o1-mini,与 DeepSeek-R1的表现不相上下。尤其是在针对数学能力的 AIME24评测集和代码能力的 LiveCodeBench 中,QwQ-32B 的成绩都与 DeepSeek-R1相当,远远领先于 o1-mini 及其同尺寸的 R1蒸馏模型。

目前,QwQ-32B 模型已在魔搭社区、HuggingFace 及 GitHub 等平台上基于宽松的 Apache2.0协议开源,任何人均可免费下载并进行本地部署。同时,用户还可以通过阿里云百炼平台直接调用模型 API 服务。

划重点:  

🌟 QwQ-32B 模型在 HuggingFace 榜单上位居第一,超越多个知名模型。  

💡 该模型在性能与应用成本上实现突破,支持消费级显卡的本地部署。  

📈 多项基准测试中表现优异,与最强模型 DeepSeek-R1相媲美。

相关资讯

阿里通义千问推出推理模型QwQ-Max预览版 可在qwen.ai域名体验

2月25日,阿里巴巴宣布推出基于Qwen2.5-Max的推理模型QwQ-Max-Preview,并计划全面开源其最新推理模型QwQ-Max和Qwen2.5-Max。 此次发布的QwQ-Max-Preview是一个预览版本,阿里巴巴表示,正式版本将很快推出,并基于Apache2.0许可证全面开源。 与以往不同的是,此次开源不仅包括模型本身,还涵盖了更小的版本,如QwQ-32B,这些版本可以部署在本地设备上,进一步推动AI技术的普及和应用。

阿里最新深度思考模型强不强?我们让它和Grok3比拼了下

AI好好用报道编辑:杨文又来了一个深度思考模型。 昨天,阿里 Qwen 团队发了个博客,标题就是:乍一看,还以为电脑卡出了乱码,但再往下一瞅,里头大有「乾坤」,因为这篇博客:不是人写的。 而是出自阿里最新深度思考模型 QwQ-Max-Preview 之手。

全国高校首个:东南大学上线阿里 QwQ-32B,支持消费级显卡本地部署

近日东南大学基于昇腾国产算力平台正式接入阿里最新开源模型 QwQ-32B,成为全国首个上线 QwQ-32B 服务的高校。东南大学称,QwQ-32B 虽仅有 32B 参数,但通过大规模强化学习训练,在数学推理(AIME24 评测)、代码生成(LiveCodeBench)、工具调用(BFCL 测试)等任务中表现媲美 671B 参数的 DeepSeek-R1,甚至部分指标实现超越。