OpenAI 启动了为期 12 天的“shipmas”新品发布周期,将推出一系列新功能、新产品以及相关演示。本次活动第二日,OpenAI 推出了强化微调(Reinforcement Fine-Tuning),帮助开发者和机器学习工程师打造针对特定复杂领域任务的专家模型。
该项目通过全新的模型定制技术,让开发者可以使用高质量任务集对模型进行微调,并利用参考答案评估模型的响应,从而提升模型在特定领域任务中的推理能力和准确性。
强化微调简介
AI在线附上官方介绍:开发人员能够使用数十到数千个高质量任务,定制 OpenAI 的模型,并使用提供的参考答案对模型的响应进行评分。官方表示这项技术强化了模型推理类似问题的方式,并提高了其在该领域特定任务上的准确性。
与标准微调不同,RFT 利用强化学习算法,可以将模型性能从高中水平提升到专家博士水平。
RFT 与监督式微调不同,它不是让模型模仿输入,而是教模型以全新的方式进行推理,通过对模型答案进行评分并强化正确的推理路线,RFT 只需少量示例即可显著提高模型性能。
RFT 支持用户利用自己的黄金数据集创建独特的模型,并将其应用于法律、金融、工程、保险等需要专业知识的领域。
强化微调面向群体
OpenAI 励研究机构、高校和企业申请,特别是那些目前由专家领导执行一系列狭窄复杂任务,并且将受益于人工智能协助的机构。
OpenAI 表示强化微调在结果具有客观“正确”答案,且大多数专家会同意的任务中表现出色,因此认为在法律、保险、医疗、金融、工程等领域会有更好的表现。
参与者可提前访问 Alpha 版强化微调 API,并在特定领域任务中进行测试,此外 OpenAI 鼓励参与者分享数据集,共同改进 OpenAI 模型。
OpenAI 预计 2025 年初公开发布强化微调功能。
OpenAI 首席执行官山姆・阿尔特曼(Sam Altman)表示:“强化微调,效果出奇地好;它是我 2024 年最大的惊喜之一。”