强化学习(RL)
学术打假!清华上交大研究颠覆认知:强化学习竟是大模型推理的"绊脚石"
【研究颠覆】清华大学与上海交通大学联合发表的最新论文,对业界普遍认为"纯强化学习(RL)能提升大模型推理能力"的观点提出了挑战性反驳。 研究发现,引入强化学习的模型在某些任务中的表现,反而逊色于未使用强化学习的原始模型。 【实验验证】研究团队在数学、编码和视觉推理三大领域进行了系统性实验:数学任务:在GSM8K、MATH500等基准测试中,RL模型在低采样次数(k值)下准确率提升,但在高k值时问题覆盖率显著下降编码任务:RLVR训练模型在HumanEval 等测试中单样本pass@1分数提高,但在高采样数(k=128)时覆盖率下降视觉推理:Qwen-2.5-VL-7B模型在多模态任务中表现一致,RL未改变其基本问题解决策略【学界争议】研究结果引发学界激烈讨论:支持方认为RL提高了采样效率但限制了推理能力开发反对方指出可能是奖励结构缺陷而非RL本身问题中立观点建议结合蒸馏等其他方法增强推理【本质思考】研究团队提出关键区分:能力:模型解决问题的潜质与逻辑链条效率:在给定能力范围内得出答案的速度与稳定性强化学习更像是"能力调控器"而非"能力创造器",它能让模型更擅长做已知的事,但难以开发新的推理路径。
4/23/2025 2:00:43 PM
AI在线
- 1
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
数据
机器人
模型
谷歌
大模型
Midjourney
智能
开源
用户
学习
GPT
微软
Meta
AI创作
图像
技术
论文
Stable Diffusion
Gemini
马斯克
算法
蛋白质
生成式
芯片
代码
英伟达
神经网络
腾讯
计算
研究
Anthropic
Sora
3D
AI for Science
AI设计
机器学习
GPU
AI视频
开发者
场景
华为
预测
人形机器人
百度
伟达
苹果
Transformer
深度学习
xAI
模态
字节跳动
大语言模型
Claude
搜索
驾驶
文本
具身智能
神器推荐
Copilot
LLaMA
算力
安全
视觉
视频生成
干货合集
应用
大型语言模型
科技
亚马逊
训练
特斯拉
AGI
DeepMind