微软现支持开发者微调 Phi-3-mini 和 Phi-3-medium AI 模型

微软公司昨日(7 月 25 日)发布博文,宣布在 Azure 上支持开发者微调(fine-tune) Phi-3-mini 和 Phi-3-medium AI 模型,针对不同用例提高模型的性能。例如,开发者可以微调 Phi-3-medium 模型,用于辅导学生;或者可以根据特定的语气或响应风格构建聊天应用程序。Phi-3-mini 模型于今年 4 月发布,共有 38 亿参数,上下文长度有 4K 和 128K 两个版本;Phi-3-medium 模型共有 140 亿参数,上下文长度同样有 4K 和 128K 两个版本

微软公司昨日(7 月 25 日)发布博文,宣布在 Azure 上支持开发者微调(fine-tune) Phi-3-mini 和 Phi-3-medium AI 模型,针对不同用例提高模型的性能。

例如,开发者可以微调 Phi-3-medium 模型,用于辅导学生;或者可以根据特定的语气或响应风格构建聊天应用程序。

Phi-3-mini 模型于今年 4 月发布,共有 38 亿参数,上下文长度有 4K 和 128K 两个版本;Phi-3-medium 模型共有 140 亿参数,上下文长度同样有 4K 和 128K 两个版本。

Phi-3-mini 模型在 6 月更新之后,跑分性能进一步提升,AI在线附上性能对比如下:

跑分 Phi-3-mini-4k Phi-3-mini-128k 4 月版本 6 月更新 4 月版本 6 月更新 Instruction Extra Hard 5.7 6.0 5.7 5.9 Instruction Hard 4.9 5.1 5 5.2 JSON Structure Output 11.5 52.3 1.9 60.1 XML Structure Output 14.4 49.8 47.8 52.9 GPQA 23.7 30.6 25.9 29.7 MMLU 68.8 70.9 68.1 69.7 平均 21.7 35.8 25.7 37.6

微软公司今天还宣布正式上线 Models-as-a-Service(serverless endpoint)服务,开发者无需担心底层基础设施,可以通过 serverless endpoint 方式构建 Phi-3-small 模型,快速开发人工智能应用程序,后续将扩充推出 Phi-3-vision 模型。

相关资讯

iPhone 上本地每秒生成 12 个 tokens,微软发布 phi-3-mini 模型:38 亿参数

微软研究院近日发布技术报告,公布了 Phi-3 系列 AI 模型,共有 mini(38 亿参数)、small(70 亿参数)和 medium(140 亿参数)三个版本。微软表示拥有 38 亿参数的 phi-3-mini 通过 3.3 万亿个 tokens 上训练,其基准跑分性能超出 Mixtral 8x7B 和 GPT-3.5。微软表示 phi-3-mini 模型可以部署在手机等设备上,在 27 亿参数的 Phi-2 模型上,进一步整合了严格过滤的网络数据和合成数据。微软也坦言 phi-3-mini 模型虽然通过优

微软发布 Phi-3.5 系列 AI 模型:上下文窗口 128K,首次引入混合专家模型

微软公司今天发布了 Phi-3.5 系列 AI 模型,其中最值得关注的是推出了该系列首个混合专家模型(MoE)版本 Phi-3.5-MoE。本次发布的 Phi-3.5 系列包括 Phi-3.5-MoE、Phi-3.5-vision 和 Phi-3.5-mini 三款轻量级 AI 模型,基于合成数据和经过过滤的公开网站构建,上下文窗口为 128K,所有模型现在都可以在 Hugging Face 上以 MIT 许可的方式获取。AI在线附上相关介绍如下:Phi-3.5-MoE:首个混合专家模型Phi-3.5-MoE 是

海外写作平台 Medium 5 月起禁止发布完全由 AI 生成的付费类文章

据海外知名写作平台 Medium 官方新闻稿,从 5 月 1 日起,该平台将禁止发布完全由 AI 生成的付费文章内容。Medium 平台声称,自家是“供人类讲故事的平台”,而不是给“AI 写作机器竞技大擂台”,虽然 AI 能够帮助某些人更清晰地写作,或者辅助创作者以自己生疏的第二语言撰写内容,但全然由 AI 撰写的内容并不可取,从 2024 年 5 月 1 日起,禁止用户发布任何由 AI 生成的付费内容。IT之家注意到,如果相关作者在 5 月 1 日以后继续发布由 AI 生成的付费内容,用户有权进行举报,相关作者将