全国高校首个:东南大学上线阿里 QwQ-32B,支持消费级显卡本地部署

近日东南大学基于昇腾国产算力平台正式接入阿里最新开源模型 QwQ-32B,成为全国首个上线 QwQ-32B 服务的高校。东南大学称,QwQ-32B 虽仅有 32B 参数,但通过大规模强化学习训练,在数学推理(AIME24 评测)、代码生成(LiveCodeBench)、工具调用(BFCL 测试)等任务中表现媲美 671B 参数的 DeepSeek-R1,甚至部分指标实现超越。

AI在线从东南大学官方微信公众号获悉,近日东南大学基于昇腾国产算力平台正式接入阿里最新开源模型 QwQ-32B,成为全国首个上线 QwQ-32B 服务的高校。

全国高校首个:东南大学上线阿里 QwQ-32B,支持消费级显卡本地部署

东南大学称,QwQ-32B 虽仅有 32B 参数,但通过大规模强化学习训练,在数学推理(AIME24 评测)、代码生成(LiveCodeBench)、工具调用(BFCL 测试)等任务中表现媲美 671B 参数的 DeepSeek-R1,甚至部分指标实现超越。

全国高校首个:东南大学上线阿里 QwQ-32B,支持消费级显卡本地部署

上图展示了 QwQ-32B 与其他领先模型在数学推理(AIME24 评测)、代码生成(LiveCodeBench)、工具调用(BFCL 测试)中的性能对比,QwQ-32B 表现与 DeepSeek-R1 相当,远胜于 o1-mini 及相同尺寸的 R1 蒸馏模型。

东南大学表示,模型支持消费级显卡本地部署,大幅降低硬件门槛,适配昇腾平台的高效算力资源,助力师生在科研中快速实现 AI 推理需求。

集成工具调用与动态推理能力,模型可根据环境反馈调整策略,适用于复杂任务处理,如数据分析、实验模拟等科研场景。

相关阅读:

  • 《阿里云推出最新通义千问 QwQ-32B 推理模型并开源,仅 1/20 参数媲美 DeepSeek R1》

相关资讯

阿里通义千问推出推理模型QwQ-Max预览版 可在qwen.ai域名体验

2月25日,阿里巴巴宣布推出基于Qwen2.5-Max的推理模型QwQ-Max-Preview,并计划全面开源其最新推理模型QwQ-Max和Qwen2.5-Max。 此次发布的QwQ-Max-Preview是一个预览版本,阿里巴巴表示,正式版本将很快推出,并基于Apache2.0许可证全面开源。 与以往不同的是,此次开源不仅包括模型本身,还涵盖了更小的版本,如QwQ-32B,这些版本可以部署在本地设备上,进一步推动AI技术的普及和应用。

阿里半夜开源全新推理模型,QwQ-32B比肩DeepSeek-R1满血版

今天凌晨 3 点,阿里开源发布了新推理模型 QwQ-32B,其参数量为 320 亿,但性能足以比肩 6710 亿参数的 DeepSeek-R1 满血版。 千问的推文表示:「这次,我们研究了扩展 RL 的方法,并基于我们的 Qwen2.5-32B 取得了一些令人印象深刻的成果。 我们发现 RL 训练可以不断提高性能,尤其是在数学和编码任务上,并且我们观察到 RL 的持续扩展可以帮助中型模型实现与巨型 MoE 模型相媲美的性能。

全球首发:QwQ-32B本地一键部署、3090单卡可跑,共享算力成关键

仅仅过了一天,阿里开源的新一代推理模型便能在个人设备上跑起来了! 昨天深夜,阿里重磅开源了参数量 320 亿的全新推理模型 QwQ-32B,其性能足以比肩 6710 亿参数的 DeepSeek-R1 满血版。 基准测试数据显示,QwQ-32B 在数学推理、代码生成及通用任务处理能力上实现了显著突破,充分展现了强化学习应用于预训练基础模型的巨大潜力。