AI在线 AI在线

超低成本复现QwQ!数学推理模型训练迎来RL暴击,数据代码模型全开源 | 蚂蚁&清华出品

作者:量子位
2025-04-02 09:00
用上这个开源框架,2天时间就能刷新7B数学推理纪录! 蚂蚁清华联手开源的强化学习框架AReaL-boba,直接把推理模型训练带到了Next Level——训练成本下降的同时,训练速率、推理能力还大幅提升的那种。 除了前面提到的7B模型,在32B模型上,只需两百美元、200条数据,就可以轻松复现QwQ-32B,就是数学推理能力媲美DeepSeek-R1,一战封神的那个。

用上这个开源框架,2天时间就能刷新7B数学推理纪录!

蚂蚁清华联手开源的强化学习框架AReaL-boba,直接把推理模型训练带到了Next Level——

训练成本下降的同时,训练速率、推理能力还大幅提升的那种。

图片

除了前面提到的7B模型,在32B模型上,只需两百美元、200条数据,就可以轻松复现QwQ-32B,就是数学推理能力媲美DeepSeek-R1,一战封神的那个。

而且开源的内容非常全面,不仅只是模型,所有训练代码,数据,模型参数以及训练细节都通通开源了,还有超级详细的技术笔记可以看,感觉像是被技术团队手把手教导。

一个技术小白也能手搓一个顶尖大模型了。

AReaL-boba,人人可复现QwQ

AReaL,Ant Reasoning RL,是Ant Research RL Lab等开源的高效强化学习系统。在此基础之上,该版本取名为boba,是因为团队希望AReaL像珍珠奶茶一样让强化学习普惠整个社区,让开发者无论资源规模均可触达SOTA效果。

通过开源全部代码、数据与模型参数,AReaL-boba在训练效率、推理能力与成本控制上实现三重突破。

首先是训练效率上的提升,全面集成SGLang推理框架

AReaL-boba是首个拥抱SGLang的开源训练系统,大幅优化训练吞吐性能。

(SGLang是一个xAI公司采用的面向复杂语言模型的高性能推理框架,它通过共同设计后端运行时和前端语言,让模型交互更快、更可控。市面上主流模型和企业都已大规模部署,每天产生数万亿个token)

对比原始版本,在1.5B模型尺寸上吞吐提升35%,7B模型提升60%,32B模型提升73%。

图片

而且无缝适配各种计算资源,既支持单机,也支持大规模分布式训练,突破传统RL训练资源瓶颈。

大规模分布式训练效率上有显著的提升,一个直观的例子:

128卡集群1天完成1.5B模型训练,256卡2天完成7B模型训练。

这样一来,中小团队也能在有限算力下快速迭代模型,真正实现”人人可驾驭强化学习”。

其次,推理能力大幅提升,尤其7B模型性能断层领先。

当前最考验推理模型能力的,无疑是它在数学推理领域的表现。

在这一领域中,AReaL-boba基于Qwen-R1-Distill-7B模型,通过大规模强化学习训练,仅用2天即实现SOTA水平——

AIME 2024 61.9分,AIME 2025 48.3分,相比于o1-preview也是大幅领先。

图片

相较于基础模型Qwen-R1-Distill-7B,使用AReaL-boba后模型推理能力也有不少提升——

分别在AIME2024、AIME2025提升6.9、8.6分。

而想要拥有这样一个SOTA级别的推理模型并不难,团队不仅把能开源的都开源了,还有超级详细的技术笔记送上。

团队不仅开源了推理模型,也开源了所有所有训练数据AReaL-boba-106k,以及全部的训练脚本和评估脚本,保证人人可以复现。

而过程中遇到问题也不用担心,在项目官方仓库上,AReaL 团队也放出了极其详细的技术笔记,总结了大量训练中的关键点,包括 PPO 超参数、奖励函数设置、正则化设置、长度上限设置等等。

刷新小模型推理上限的同时,也通过技术透明化推动创新生态。

像我这样一个技术小白,研究一下也能手搓个小模型出来。

最后,使用创新性蒸馏技术,极简数据复现顶尖模型

前段时间,QwQ-32B横空出世,其强大的推理性能引发诸多关注。

它在数学推理、编码能力和一般问题解决能力上,超过了一众领先模型,包括DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、o1-mini和原始DeepSeek-R1。

图片

现在AReaL-boba推出超精简训练方案,直接把32B大模型训练的所需成本给打下来。

数据上面,仅需200条数据的AReaL-boba-200数据集。

使用Qwen-32B-Distill基础模型,通过轻量级SFT技术即可复现QwQ-32B的AIME2024效果。

整个计算成本,仅需200美元

这一创新让顶级推理能力的训练门槛从“实验室专享”降为”人人可及”,开创了小数据驱动大模型的新范式。

首个完整开源的团队

AReaL团队的核心成员均来自于蚂蚁研究院强化学习实验室以及清华交叉信息研究院吴翼老师团队。

上个月,他们初始版本针对1.5B和7B推理模型优化,比如借助AReaL使用RL训练1.5B蒸馏模型,在40小时内超越o1-Preview的数学推理能力。

图片

同样也给出了详细的训练细节。

图片

作为国内第一个完整开源(数据、代码、模型、脚本全开源)的项目团队,他们表示致力于真正实现AI训练的普惠。

其实从此次boba版本的发布也能看出,通过开源开放,让AI训练成为社区共享的基础设施。其三大技术突破(极速训练、推理登顶、低成本复现)形成的技术飞轮,推动强化学习大规模训练的发展。

在项目列表中,他们也揭示了后续的开源计划和目标——

包括异步训练,更快的训练吞吐,更好的数据集和算法,以及代码和Agent智能体能力的支持

也是十分期待了。

实际上,蚂蚁的AI研发也非常值得关注,成果SOTA,场景天然,产品还是国民级的。

项目链接:

https://github.com/inclusionAI/AReaL

HuggingFace数据模型地址:

https://huggingface.co/collections/inclusionAI/areal-boba-67e9f3fa5aeb74b76dcf5f0a

相关标签:

相关资讯

微软等开源AIOpsLab,可构建自主云AI Agent

微软、加州大学伯克利分校、伊利诺伊大学等研究人员联合开源了,一个专用于云自动化运维的AI Agents——AIOpsLab。 AIOpsLab能模拟真实云服务环境中的复杂操作任务,实现故障的自动化检测、定位和解决问题。 还具备高度的可观测性,能够收集和分析关键的遥测数据,确保对系统状态和应用环境的深入洞察。
1/27/2025 9:51:24 AM
AIGC开放社区

DeepSeek开源Janus-Pro-7B:多模态AI模型性能超越DALL-E 3 和 Stable Diffusion 3!

中国人工智能公司 DeepSeek 的 R1“推理”人工智能已经引起了广泛关注,位居应用商店排行榜首位并改变了股市。 随后DeepSeek又宣布开源新一代多模态模型Janus-Pro-7B,该模型在图像生成、视觉问答等任务中全面超越 OpenAI 的 DALL-E 3 和 Stable Diffusion 3,并以“理解-生成双路径”架构和极简部署方案引发AI社区轰动。 性能表现:小模型吊打行业巨头Janus-Pro-7B虽仅有70亿参数(约为GPT-4的1/25),却在关键测试中碾压对手:文生图质量:在GenEval测试中以80%准确率击败DALL-E 3(67%)和Stable Diffusion 3(74%)复杂指令理解:在DPG-Bench测试中达84.19%准确率,能精准生成如“山脚下有蓝色湖泊的雪山”等复杂场景多模态问答:视觉问答准确率超越GPT-4V,MMBench测试得分79.2分接近专业分析模型技术突破:像“双面神”分工协作传统模型让同一套视觉编码器既理解图片又生成图片,如同让厨师同时设计菜单和炒菜。
2/7/2025 11:00:00 AM
AIGC Studio

李飞飞、DeepSeek为何偏爱这个国产模型?

斯坦福李飞飞团队的一篇论文,近来在AI圈子掀起了一场飓风。 他们仅用1000个样本,在16块H100上监督微调26分钟,训出的新模型s1-32B,竟取得了和OpenAI o1、DeepSeek R1等尖端推理模型相当的数学和编码能力! 团队也再次证明了测试时Scaling的威力。
2/8/2025 9:30:00 AM
新智元