32B
Light-R1-32B:低成本高性能的数学解题新星闪耀登场
2025年3月6日,一款名为 **Light-R1-32B** 的全新语言模型正式亮相。 这款基于 **Qwen2.5-32B-Instruct** 模型打造的数学解题利器,经过特别训练,以其卓越的数学解题能力、低廉的训练成本以及可复现性,成为人工智能领域的一大亮点。 开发团队xAI表示,Light-R1-32B不仅在性能上超越同类模型,还为学术研究和实际应用提供了极具价值的参考。
通义App首发千问QwQ-32B智能体,AI体验持续升级
3月6日,AIbase发现阿里AI To C业务旗下AI应用通义,已经接入阿里最新开源推理模型通义千问QwQ-32B,目前在移动端与网页端均可体验。 千问QwQ-32B是阿里最新发布的强大推理模型,其特点是兼具性能与效率。 千问QwQ-32B在数学、代码及通用能力上实现质的飞跃,整体性能比肩DeepSeek-R1。
无需高攀云端!阿里开源全新的推理模型通义千问QwQ-32B,消费级显卡也能跑出S级性能!
AI圈再掀巨浪!阿里巴巴震撼发布并全面开源了其最新力作——通义千问QwQ-32B推理模型。 这款被寄予厚望的新模型,并非徒有虚名,而是经过大规模强化学习的千锤百炼,在硬核的数学运算、复杂的代码编写以及通用的AI能力上实现了质的飞跃,整体性能已经能够正面硬刚行业标杆DeepSeek-R1,实力不容小觑。 更令人兴奋的是,通义千问QwQ-32B一举打破了高性能AI模型“高价难用”的魔咒。
阿里新开源推理大模型QwQ-32B,性能媲美DeepSeek-R1、显存需求更小
阿里巴巴旗下的Qwen团队近日推出了其最新的开源大型语言模型(LLM)家族成员——QwQ-32B。 这款拥有320亿参数的推理模型,旨在通过强化学习(RL)提升在复杂问题解决任务上的性能。 据介绍,QwQ-32B已在Hugging Face和ModelScope上以 Apache2.0许可证开源。
训练1000样本就能超越o1,李飞飞等人画出AI扩展新曲线
跟大模型说:要多想。 今年 1 月,DeepSeek R1 引爆了全球科技界,它创新的方法,大幅简化的算力需求撼动了英伟达万亿市值,更引发了全行业的反思。 在通往 AGI(通用人工智能)的路上,我们现在不必一味扩大算力规模,更高效的新方法带来了更多的创新可能。
阿里通义千问开源 320 亿参数模型,已实现 7 款大语言模型全开源
感谢4 月 7 日,阿里云通义千问开源 320 亿参数模型 Qwen1.5-32B。IT之家注意到,通义千问此前已开源 5 亿、18 亿、40 亿、70 亿、140 亿和 720 亿参数 6 款大语言模型。此次开源的 320 亿参数模型,将在性能、效率和内存占用之间实现更理想的平衡。例如,相比通义千问 14B 开源模型,32B 在智能体场景下能力更强;相比通义千问 72B 开源模型,32B 的推理成本更低。通义千问团队希望 32B 开源模型能为企业和开发者提供更高性价比的模型选择。目前,通义千问共开源了 7 款大语
通义千问开源320亿参数模型,已实现7款大语言模型全开源
4月7日消息,阿里云通义千问开源320亿参数模型Qwen1.5-32B,可最大限度兼顾性能、效率和内存占用的平衡,为企业和开发者提供更高性价比的模型选择。目前,通义千问共开源了7款大语言模型,在海内外开源社区累计下载量突破300万。通义千问此前已开源5亿、18亿、40亿、70亿、140亿和720亿参数的6款大语言模型并均已升级至1.5版本,其中,几款小尺寸模型可便捷地在端侧部署,720亿参数模型则拥有业界领先的性能,多次登上HuggingFace等模型榜单。此次开源的320亿参数模型,将在性能、效率和内存占用之间实
- 1