OpenAI 活动第二弹:“强化微调”打造领域专家 AI 模型,阿尔特曼称其为今年最大惊喜

OpenAI 启动了为期 12 天的“shipmas”新品发布周期,将推出一系列新功能、新产品以及相关演示。本次活动第二日,OpenAI 推出了强化微调(Reinforcement Fine-Tuning),帮助开发者和机器学习工程师打造针对特定复杂领域任务的专家模型。

OpenAI 启动了为期 12 天的“shipmas”新品发布周期,将推出一系列新功能、新产品以及相关演示。本次活动第二日,OpenAI 推出了强化微调(Reinforcement Fine-Tuning),帮助开发者和机器学习工程师打造针对特定复杂领域任务的专家模型。

该项目通过全新的模型定制技术,让开发者可以使用高质量任务集对模型进行微调,并利用参考答案评估模型的响应,从而提升模型在特定领域任务中的推理能力和准确性。

强化微调简介

AI在线附上官方介绍:开发人员能够使用数十到数千个高质量任务,定制 OpenAI 的模型,并使用提供的参考答案对模型的响应进行评分。官方表示这项技术强化了模型推理类似问题的方式,并提高了其在该领域特定任务上的准确性。

OpenAI 活动第二弹:“强化微调”打造领域专家 AI 模型,阿尔特曼称其为今年最大惊喜

OpenAI 活动第二弹:“强化微调”打造领域专家 AI 模型,阿尔特曼称其为今年最大惊喜

与标准微调不同,RFT 利用强化学习算法,可以将模型性能从高中水平提升到专家博士水平。

OpenAI 活动第二弹:“强化微调”打造领域专家 AI 模型,阿尔特曼称其为今年最大惊喜

RFT 与监督式微调不同,它不是让模型模仿输入,而是教模型以全新的方式进行推理,通过对模型答案进行评分并强化正确的推理路线,RFT 只需少量示例即可显著提高模型性能。

RFT 支持用户利用自己的黄金数据集创建独特的模型,并将其应用于法律、金融、工程、保险等需要专业知识的领域。

强化微调面向群体

OpenAI 励研究机构、高校和企业申请,特别是那些目前由专家领导执行一系列狭窄复杂任务,并且将受益于人工智能协助的机构。

OpenAI 表示强化微调在结果具有客观“正确”答案,且大多数专家会同意的任务中表现出色,因此认为在法律、保险、医疗、金融、工程等领域会有更好的表现。

参与者可提前访问 Alpha 版强化微调 API,并在特定领域任务中进行测试,此外 OpenAI 鼓励参与者分享数据集,共同改进 OpenAI 模型。

OpenAI 预计 2025 年初公开发布强化微调功能。

OpenAI 首席执行官山姆・阿尔特曼(Sam Altman)表示:“强化微调,效果出奇地好;它是我 2024 年最大的惊喜之一。”

OpenAI 活动第二弹:“强化微调”打造领域专家 AI 模型,阿尔特曼称其为今年最大惊喜

给TA打赏
共{{data.count}}人
人已打赏
应用

月之暗面创始人杨植麟发声:感恩所有投资人支持创业梦想,相信分歧会有合理的解决方式

2024-12-6 22:27:39

应用

不再是会员专属,马斯克 X 平台 Grok 聊天机器人向免费用户开放

2024-12-7 7:20:33

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索