OpenAI断供大陆市场,这家GPT-4的“国产平替”真香

6 月 25 日,有多名开发者收到了来自 OpenAI 的公告,公告中显示,OpenAI 将于 7 月 9 日开始封锁来自非支持国家和地区的 API 流量。在 OpenAI 给出的 “支持访问国家和地区” 名单上(),中国大陆、中国香港等地均未在列。在审视 OpenAI 与中国大陆市场互动的历史脉络时,可以观察到其一贯持有的审慎姿态。早先,该公司对中国大陆地区的用户实行了注册门槛,限制了其对 ChatGPT 服务的访问权限。中国大陆的开发者群体在构建基于 OpenAI API 的衍生服务时,往往需要通过代理服务器或

6 月 25 日,有多名开发者收到了来自 OpenAI 的公告,公告中显示,OpenAI 将于 7 月 9 日开始封锁来自非支持国家和地区的 API 流量。在 OpenAI 给出的 “支持访问国家和地区” 名单上(https://platform.openai.com/docs/supported-countries),中国大陆、中国香港等地均未在列。

在审视 OpenAI 与中国大陆市场互动的历史脉络时,可以观察到其一贯持有的审慎姿态。早先,该公司对中国大陆地区的用户实行了注册门槛,限制了其对 ChatGPT 服务的访问权限。中国大陆的开发者群体在构建基于 OpenAI API 的衍生服务时,往往需要通过代理服务器或在海外部署反向代理机制。这不仅增加了运维成本,也无法保证服务的稳定性。

在发布上述公告后,可以预见的是,OpenAI 会进一步加强对非支持国家和地区的监管。对于基于 OpenAI API 进行应用创新的个人开发者和企业而言都会是巨大的冲击。

对此,由李开复博士创立的 AI 大模型独角兽公司零一万物发起 “Yi API 二折平替计划”,面向 OpenAI 用户推出了平滑迁移至 Yi 系列大模型的服务。针对接入 OpenAI 的不同模型的用户,零一万物一一对应地提供了高模型性能且极具性价比的替换方案。

Yi API 顶级性能平替 GPT

成本削减最高达 91%

据零一万物介绍,目前注册使用 Yi API 的新客户,零一万物立即赠送 100 元额度,帮助用户完成平稳过渡;平台充值还将赠送 50% 到账额度,上不封顶,为用户提供更长线的优惠;任意充值即可享受 RPM/TPM 限速直升 Tier3,直达高级别的服务质量和超快响应速度;此外,零一万物 API 还将提供 Prompt 兼容调优服务支持,陪伴用户又好又快地适配 Yi 系列大模型。

事实上,从模型评测成绩、API 价格等公开数据来看,对于原先接入 GPT-4o 的用户来说,无论是在模型性能、还是在使用成本方面,接入零一万物千亿参数旗舰模型 Yi-Large 都会是 “物美价廉” 的国产大模型平替方案。

伯克利大学公开盲测 LMSYS 综合排名中,Yi-Large 在中国大模型中排名第一,在中文榜单上 Yi-Large 超过 GPT-4,与 GPT4o 并列排名世界第一(2024.6.25);斯坦福评测机构 AlpacaEval 2.0 经官方认证的模型排行榜上,Yi-Large 的 LC Win Rate 也高于 GPT-4(2024.6.25);在 GPQA、HumanEval、MT-Bench、AlignBench 等权威评测集上,Yi-Large 的得分也高于 GPT-4(2024.5.12)。

图片

                            LMSYS 总榜排名 2024.5.21

值得一提的是,模型性能相近的同时,Yi-Large 的定价远低于顶配模型 GPT-4o。以 GPT-4o 的定价计算(取 Input 和 Output 均值为 Open API 价格),接入 Yi-Large 后使用成本可下降 72%。

对于原先使用 GPT-4 Turbo 的用户,零一万物也给出了平滑迁移至 Yi-Large-Turbo 的方案。Yi-Large-Turbo 本身是一款具有超高性价比的模型,品质接近 Yi-Large,具有通用高精度推理能力,但是使用成本较 Yi-Large 大幅降低。

对比 GPT-4 Turbo 的价格,用户接入 Yi-Large-Turbo 后使用成本可下降九成以上。对于业务产品已经验证成立,需要降低成本的客户, Yi-Large-Turbo 会非常适用。此外,零一万物还可提供支持实时搜索的 Yi-Large-RAG,适用于需要结合实时信息进行推理的场景,以便用户基于自身需求选择更匹配的模型。

在 OpenAI API 中,GPT-3.5-Turbo-1106 聚焦于处理简单任务,主打快速、廉价。而零一万物提供了更高性价比的方案 —— 中等尺寸模型 Yi-Medium 来完美承接用户需求,使用成本较 GPT-3.5-Turbo-1106 下降 66%。虽然仅为中等尺寸模型,但是 Yi-Medium 深度优化了指令遵循能力,适用于日常聊天、翻译等通用场景,非常匹配大规模应用大模型的需求。

图片

详细信息,访问 Yi 大模型开放平台:https://platform.lingyiwanwu.com/

获多家头部企业用户认可

共同探索 TC-PMF

凭借着出色的模型性能和极具竞争力的价格, Yi 系列大模型已成为大量企业在中文环境下探索新业务、验证 AI-Native 产品 PMF 的最佳选择之一。目前,Yi 系列大模型已在全球范围内积累起了一批头部付费企业客户,涉及 AI 写作、AI 编程、医疗、消费 3C、生化环材等多个领域。

知料科技是一家深耕通用 AI 领域的头部企业,旗下已有多款 AIGC 应用,如知料万语、知料觅得 AI 搜索等应用已入驻联想 AIPC 产品。知料万语及知料觅得背后所接入的正是 Yi 系列 API。从数据来看,据知料科技创始合伙人、济南大学人工智能研究院副院长张世光教授透露,接入 Yi 系列大模型后,知料万语付费转化率高达 10%,售后退款率则大幅降低了 50%。

图片

在中国知名主流财经媒体《每日经济新闻》所发布的《每日经济新闻大模型评测报告》中,零一万物 Yi-Large 成为最大 “黑马”,在 “财经新闻标题创作”“微博新闻写作”“文章差错校对”“财务数据计算与分析” 四大应用场景的总分排名第一,高质量内容生成能力得到专业新闻机构认可。

此前凭借开源多智能体框架爆火的 MetaGPT 也选择接入 Yi-Large 模型。MetaGPT 联合创始人徐宗泽在 Yi-Large 发布后立即展开内部测试,在规划、任务分配、代码生成、反思等方面 Yi-Large 均表现出色。在比较了模型性能与 API 团队的服务质量后,MetaGPT 确定将 Yi-Large 整合入即将发布的自然语言编程产品配置中。

图片

                         Yi-Large 满分达成测试任务:“使用四个不同的机器学习模型进行训练,然后评估出最优的 AI 模型作为最优方案”

除 AI 写作和 AI 编程外,医疗领域内某头部企业选择接入 Yi 系列大模型来进行患者病历的数据提取及标注,目前准确率近 100%,数据标注环节的工作效率提升了近八成;消费 3C 领域,某头部手机厂商在横向对比多家国内头部大模型后,最终选择接入 Yi 系列大模型,与零一万物共创通话摘要、AI 智能体等应用。

零一万物坚信只有通过共建生态的合作模式,才能够最大程度地释放 Yi 系列大模型的潜在价值。后续零一万物会持续推进模型性能升级、推动模型推理成本下降,让合作伙伴能够在 Yi 系列大模型的基础上更加灵活地进行创新和实验,共同构建起繁荣的大模型应用生态,为企业、为个人、为社会带来更多价值,真正做到让通用人工智能普惠各地、人人受益。

相关资讯

李开复旗下 AI 模型“零一万物 API”上线,支持文档理解、图片问答等

感谢李开复旗下零一万物日前上线官方 API ,用户可以体验 Yi 系列 AI 大模型,其中包含 yi-34b-chat-0205、yi-34b-chat-200k、yi-vl-plus。IT之家汇总如下:yi-34b-chat-0205:基于开源版进行深度优化的版本,指令遵循能力提升近 30%,模型回复延迟大大降低。适用于聊天、问答、对话、协作、翻译等场景。yi-34b-chat-200k:200K 超长上下文,支持处理约 20w ~ 30w 个中文汉字(约为 1 本《哈利波特》)或英文单词。适用于多篇文档内容理解

零一万物Yi-VL多模态大模型开源,MMMU、CMMMU两大权威榜单领先

1 月 22 日,零一万物 Yi 系列模型家族迎来新成员:Yi Vision Language(Yi-VL)多模态语言大模型正式面向全球开源。据悉,Yi-VL 模型基于 Yi 语言模型开发,包括 Yi-VL-34B 和 Yi-VL-6B 两个版本。Yi-VL 模型开源地址:,Yi-VL 模型在英文数据集 MMMU 和中文数据集 CMMMU 上取得了领先成绩,展示了在复杂跨学科任务上的强大实力。MMMU(全名 Massive Multi-discipline Multi-modal Understanding & R

零一万物Yi-1.5来了,国产开源大模型排行榜再次刷新

在 OpenAI 发布会的前一天,来自中国的大模型公司零一万物,让开源大模型社区活跃了起来:Yi 大模型家族新成员「Yi-1.5」模型正式开源。在项目主页可以看到,Yi-1.5 包括一系列预训练和微调模型,分为 6B、9B、34B 三个版本,采用 Apache 2.0 许可证。GitHub 地址: Face 模型下载地址:,Yi-1.5 是 Yi-1.0 的持续预训练版本,使用 500B 个 token 来提高编码、推理和指令执行能力,并在 300 万个指令调优样本上进行了精细调整。刚一发布,就已经有开发者跃跃欲试