​阿里新开源推理大模型QwQ-32B,性能媲美DeepSeek-R1、显存需求更小

阿里巴巴旗下的Qwen团队近日推出了其最新的开源大型语言模型(LLM)家族成员——QwQ-32B。 这款拥有320亿参数的推理模型,旨在通过强化学习(RL)提升在复杂问题解决任务上的性能。 据介绍,QwQ-32B已在Hugging Face和ModelScope上以 Apache2.0许可证开源。

阿里巴巴旗下的Qwen团队近日推出了其最新的开源大型语言模型(LLM)家族成员——QwQ-32B。这款拥有320亿参数的推理模型,旨在通过强化学习(RL)提升在复杂问题解决任务上的性能。

据介绍,QwQ-32B已在Hugging Face和ModelScope上以 Apache2.0许可证开源。这意味着该模型可用于商业和研究目的,企业能够直接将其应用于产品和应用,包括那些收费的服务。个人用户也可以通过Qwen Chat访问该模型。

QwQ,全称Qwen-with-Questions,是阿里巴巴于2024年11月首次推出的开源推理模型,目标是与OpenAI的o1-preview竞争。最初的QwQ通过在推理过程中审查和改进自身答案来增强逻辑推理和规划能力,尤其在数学和编码任务中表现出色。

此前的QwQ拥有320亿参数和32,000tokens的上下文长度,并在AIME和MATH等数学基准测试以及GPQA等科学推理任务中超越了o1-preview。然而,早期版本的QwQ在LiveCodeBench等编程基准测试中表现相对较弱,并且面临语言混合和偶尔的循环论证等挑战。

尽管如此,阿里巴巴选择以Apache2.0许可证发布该模型,使其与OpenAI的o1等专有替代方案区分开来,允许开发者和企业自由地进行适配和商业化。随着AI领域的发展,传统LLM的局限性日益显现,大规模扩展带来的性能提升逐渐减缓,这推动了对**大型推理模型(LRM)**的兴趣。LRM通过推理时推理和自我反思来提高准确性,例如OpenAI的o3系列和DeepSeek-R1。

QQ_1741223805921.png

最新的QwQ-32B通过整合强化学习和结构化自我提问,进一步提升了性能,旨在成为推理AI领域的重要竞争者。QwQ团队的研究表明,强化学习可以显著提高模型解决复杂问题的能力。QwQ-32B采用了多阶段强化学习训练方法,以增强数学推理、编码能力和通用问题解决能力.

在基准测试中,QwQ-32B与DeepSeek-R1、o1-mini和DeepSeek-R1-Distilled-Qwen-32B等领先模型展开了竞争,并在参数量小于部分竞品的情况下取得了有竞争力的结果。例如,DeepSeek-R1拥有6710亿参数(激活370亿),而QwQ-32B在性能相当的情况下,显存需求更小,通常在GPU上需要24GB vRAM,而运行完整的DeepSeek R1则需要超过1500GB vRAM。

QQ_1741223834554.png

QwQ-32B采用了因果语言模型架构,并进行了多项优化,包括64个Transformer层、RoPE、SwiGLU、RMSNorm和Attention QKV bias。它还采用了广义查询注意力(GQA),拥有131,072tokens的扩展上下文长度,并经历了包括预训练、监督微调和强化学习在内的多阶段训练。

QwQ-32B的强化学习过程分为两个阶段:首先专注于数学和编码能力,利用准确性验证器和代码执行服务器进行训练。第二阶段则通过通用奖励模型和基于规则的验证器进行奖励训练,以提高指令跟随、人类对齐和代理推理能力,同时不影响其数学和编码能力。

QwQ-32B还具备agentic capabilities,能够根据环境反馈动态调整推理过程。Qwen团队建议使用特定的推理设置以获得最佳性能,并支持使用vLLM进行部署。

Qwen团队将QwQ-32B视为通过扩展强化学习增强推理能力的第一步,未来计划进一步探索扩展强化学习、整合代理与强化学习以实现长期推理,并持续开发为强化学习优化的基础模型,最终迈向通用人工智能(AGI)。

模型:https://qwenlm.github.io/blog/qwq-32b/

划重点:

🚀 阿里巴巴推出开源推理大模型QwQ-32B,采用强化学习技术,提升复杂问题求解能力.

💡 QwQ-32B在数学、编程等基准测试中表现与更大参数模型相当,且显存需求更低,并以Apache2.0协议开源,可免费商用.

🧠 该模型具备扩展上下文长度(13万 tokens)agentic capabilities,未来将继续探索强化学习在提升模型智能方面的潜力.

相关资讯

无需高攀云端!阿里开源全新的推理模型通义千问QwQ-32B,消费级显卡也能跑出S级性能!

AI圈再掀巨浪!阿里巴巴震撼发布并全面开源了其最新力作——通义千问QwQ-32B推理模型。 这款被寄予厚望的新模型,并非徒有虚名,而是经过大规模强化学习的千锤百炼,在硬核的数学运算、复杂的代码编写以及通用的AI能力上实现了质的飞跃,整体性能已经能够正面硬刚行业标杆DeepSeek-R1,实力不容小觑。 更令人兴奋的是,通义千问QwQ-32B一举打破了高性能AI模型“高价难用”的魔咒。

推理水平对标OpenAI o1!阿里云通义开源最新推理模型QwQ

11月28日,阿里云通义团队发布全新AI推理模型QwQ-32B-Preview,并同步开源。 评测数据显示,预览版本的QwQ,已展现出研究生水平的科学推理能力,在数学和编程方面表现尤为出色,整体推理水平比肩OpenAI o1。 QwQ(Qwen with Questions)是通义千问Qwen大模型最新推出的实验性研究模型,也是阿里云首个开源的AI推理模型。

UC伯克利教授Pieter Abbeel开课了:六节课入门「深度强化学习」,讲义免费下载

课程视频时间有点长,但希望你能享受学习的快乐。将传统强化学习与深度神经网络结合的深度强化学习,一直以来被视为更接近人类思维方式的人工智能方法。深度学习具备强感知能力但缺乏一定的决策能力,强化学习具备决策能力但对感知问题束手无策,因此将两者结合起来可以达到优势互补的效果,为复杂系统的感知决策问题提供了解决思路。想要入门深度强化学习的同学们,请高度注意,一份优秀、细致、全面的新教材出现了。今天,UC 伯克利教授 Pieter Abbeel 上传了自己的新课程《深度强化学习基础》的最后一节视频,并在推特上安利了一下。这份