微软公司昨日(7 月 25 日)发布博文,宣布在 Azure 上支持开发者微调(fine-tune) Phi-3-mini 和 Phi-3-medium AI 模型,针对不同用例提高模型的性能。
例如,开发者可以微调 Phi-3-medium 模型,用于辅导学生;或者可以根据特定的语气或响应风格构建聊天应用程序。
Phi-3-mini 模型于今年 4 月发布,共有 38 亿参数,上下文长度有 4K 和 128K 两个版本;Phi-3-medium 模型共有 140 亿参数,上下文长度同样有 4K 和 128K 两个版本。
Phi-3-mini 模型在 6 月更新之后,跑分性能进一步提升,AI在线附上性能对比如下:
跑分 Phi-3-mini-4k Phi-3-mini-128k 4 月版本 6 月更新 4 月版本 6 月更新 Instruction Extra Hard 5.7 6.0 5.7 5.9 Instruction Hard 4.9 5.1 5 5.2 JSON Structure Output 11.5 52.3 1.9 60.1 XML Structure Output 14.4 49.8 47.8 52.9 GPQA 23.7 30.6 25.9 29.7 MMLU 68.8 70.9 68.1 69.7 平均 21.7 35.8 25.7 37.6微软公司今天还宣布正式上线 Models-as-a-Service(serverless endpoint)服务,开发者无需担心底层基础设施,可以通过 serverless endpoint 方式构建 Phi-3-small 模型,快速开发人工智能应用程序,后续将扩充推出 Phi-3-vision 模型。