卡内基梅隆大学(CMU)
CMU 团队推出元强化微调:提升大语言模型推理能力的新范式
在人工智能领域,大语言模型(LLM)正在不断进化,最近,卡内基梅隆大学(CMU)与 HuggingFace 的研究者们共同提出了一种名为 “元强化微调”(Meta Reinforcement Fine-Tuning,简称 MRT)的新方法。 这一方法旨在优化大语言模型在测试时的计算效率,尤其是在解决复杂推理问题时,表现尤为突出。 研究表明,现有的大语言模型在推理过程中常常消耗过多的计算资源,而 MRT 的目标是让模型在给定的计算预算内,实现更高效的答案发现。
3/13/2025 11:37:00 AM
AI在线
- 1
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
数据
机器人
谷歌
大模型
模型
Midjourney
智能
学习
用户
GPT
开源
微软
AI创作
图像
Meta
技术
论文
Stable Diffusion
马斯克
算法
Gemini
蛋白质
生成式
芯片
代码
神经网络
腾讯
计算
研究
英伟达
Sora
AI设计
AI for Science
3D
GPU
机器学习
开发者
场景
华为
Anthropic
预测
伟达
Transformer
模态
深度学习
百度
苹果
AI视频
驾驶
文本
搜索
神器推荐
xAI
Copilot
LLaMA
算力
人形机器人
大语言模型
具身智能
安全
应用
视频生成
科技
字节跳动
干货合集
2024
Claude
视觉
AGI
特斯拉
亚马逊
语音
架构