OpenAI 活动第二弹:“强化微调”打造领域专家 AI 模型,阿尔特曼称其为今年最大惊喜

OpenAI 启动了为期 12 天的“shipmas”新品发布周期,将推出一系列新功能、新产品以及相关演示。本次活动第二日,OpenAI 推出了强化微调(Reinforcement Fine-Tuning),帮助开发者和机器学习工程师打造针对特定复杂领域任务的专家模型。

OpenAI 启动了为期 12 天的“shipmas”新品发布周期,将推出一系列新功能、新产品以及相关演示。本次活动第二日,OpenAI 推出了强化微调(Reinforcement Fine-Tuning),帮助开发者和机器学习工程师打造针对特定复杂领域任务的专家模型。

该项目通过全新的模型定制技术,让开发者可以使用高质量任务集对模型进行微调,并利用参考答案评估模型的响应,从而提升模型在特定领域任务中的推理能力和准确性。

强化微调简介

AI在线附上官方介绍:开发人员能够使用数十到数千个高质量任务,定制 OpenAI 的模型,并使用提供的参考答案对模型的响应进行评分。官方表示这项技术强化了模型推理类似问题的方式,并提高了其在该领域特定任务上的准确性。

OpenAI 活动第二弹:“强化微调”打造领域专家 AI 模型,阿尔特曼称其为今年最大惊喜

OpenAI 活动第二弹:“强化微调”打造领域专家 AI 模型,阿尔特曼称其为今年最大惊喜

与标准微调不同,RFT 利用强化学习算法,可以将模型性能从高中水平提升到专家博士水平。

OpenAI 活动第二弹:“强化微调”打造领域专家 AI 模型,阿尔特曼称其为今年最大惊喜

RFT 与监督式微调不同,它不是让模型模仿输入,而是教模型以全新的方式进行推理,通过对模型答案进行评分并强化正确的推理路线,RFT 只需少量示例即可显著提高模型性能。

RFT 支持用户利用自己的黄金数据集创建独特的模型,并将其应用于法律、金融、工程、保险等需要专业知识的领域。

强化微调面向群体

OpenAI 励研究机构、高校和企业申请,特别是那些目前由专家领导执行一系列狭窄复杂任务,并且将受益于人工智能协助的机构。

OpenAI 表示强化微调在结果具有客观“正确”答案,且大多数专家会同意的任务中表现出色,因此认为在法律、保险、医疗、金融、工程等领域会有更好的表现。

参与者可提前访问 Alpha 版强化微调 API,并在特定领域任务中进行测试,此外 OpenAI 鼓励参与者分享数据集,共同改进 OpenAI 模型。

OpenAI 预计 2025 年初公开发布强化微调功能。

OpenAI 首席执行官山姆・阿尔特曼(Sam Altman)表示:“强化微调,效果出奇地好;它是我 2024 年最大的惊喜之一。”

OpenAI 活动第二弹:“强化微调”打造领域专家 AI 模型,阿尔特曼称其为今年最大惊喜

相关资讯

OpenAI 开放 GPT-4o 定制功能,企业可更轻松打造专属 AI 助手

OpenAI 推出了一项新功能,允许企业客户使用自己的数据来定制其最强大的 AI 模型 GPT-4o。此举旨在应对日益激烈的 AI 企业应用竞争,并满足企业对 AI 投资回报的更高要求。所谓定制,即业界所称的“微调(fine-tuning)”。通过微调,现有 AI 模型可以针对特定任务或领域进行优化。例如,一家滑板公司可以微调 AI 模型,使其成为能够回答有关轮子和滑板护理问题的客服聊天机器人。此前,OpenAI 仅允许用户微调其较小的模型,如 GPT-4o mini。而此次开放 GPT-4o 和 GPT-4 的微

谷歌内部文件泄漏:谷歌、OpenAI都没有护城河,大模型门槛正被开源踏破

「我们没有护城河,OpenAI 也没有。」在最近泄露的一份文件中,一位谷歌内部的研究人员表达了这样的观点。

OpenAI 新动态:改善微调 API,扩展定制模型计划

感谢OpenAI 公司近日发布新闻稿,宣布改善微调(fine-tuning)API,并进一步扩展定制模型计划。IT之家翻译新闻稿中关于微调 API 的相关改进内容如下基于 Epoch 的 Checkpoint Creation在每次训练 epoch(将训练数据集中的所有样本都过一遍(且仅过一遍)的训练过程)过程中,都自动生成一个完整的微调模型检查点,便于减少后续重新训练的需要,尤其是在过拟合(overfitting,指过于紧密或精确地匹配特定数据集,以至于无法良好地拟合其他数据或预测未来的观察结果的现象)的情况下。