OpenAI 测试长输出版 GPT-4o:单次 64K tokens,每百万 tokens 输入 6 美元、输出 18 美元

感谢OpenAI 于 7 月 29 日宣布,正在测试长输出版 GPT-4o(GPT-4o Long Output),每次请求最多可输出 64K tokens。目前该版本仅限 Alpha 测试参与者使用,可通过使用“gpt-4o-64k-output-alpha”模型名称来访问长输出版 GPT-4o。OpenAI 表示,由于长输出版本推理成本更高,因此该模型的定价有所增加,每百万 tokens 输入价格为 6 美元(AI在线备注:当前约 43 元人民币)、每百万 tokens 输出价格为 18 美元(当前约 130
感谢OpenAI 于 7 月 29 日宣布,正在测试长输出版 GPT-4o(GPT-4o Long Output),每次请求最多可输出 64K tokens

OpenAI 测试长输出版 GPT-4o:单次 64K tokens,每百万 tokens 输入 6 美元、输出 18 美元

目前该版本仅限 Alpha 测试参与者使用,可通过使用“gpt-4o-64k-output-alpha”模型名称来访问长输出版 GPT-4o。

OpenAI 表示,由于长输出版本推理成本更高,因此该模型的定价有所增加,每百万 tokens 输入价格为 6 美元(AI在线备注:当前约 43 元人民币)、每百万 tokens 输出价格为 18 美元(当前约 130 元人民币)。

OpenAI 于 7 月 18 日发布 GPT-4o mini,号称是“目前功能最强大、成本效益最高的小型模型”。作为对比,GPT-4o mini 每百万 tokens 输入价格仅 15 美分、每百万 tokens 输出价格为  60 美分。

相关资讯

GPT-4o mini 的 6.7/8.3 倍,Claude 3.5 Haiku AI 模型每百万 tokens 输入 1 美元 / 输出 5 美元

Anthropic 昨日(11 月 4 日)发布博文,宣布开发者可以通过第一方 API、Amazon Bedrock 和 Google Cloud 的 Vertex AI,调用 Claude 3.5 Haiku 模型。 Claude 3.5 Haiku 对标的是 OpenAI 的 GPT-4o Mini 和谷歌的 Gemini 1.5 Flash,在多项 AI 基准测试中超越了 Anthropic 上一代中最大的模型 Claude 3 Opus。 Anthropic 表示目前 Claude 3.5 Haiku 模型仅上线文本模态,未来将支持图像输入。

DeepSeek开放平台API充值服务已正式恢复

近日,DeepSeek API开放平台发布消息,宣布其API充值服务已正式恢复。 此前,由于服务器资源紧张,DeepSeek于2月6日暂停了API服务的充值功能。 此次恢复充值的同时,DeepSeek也对部分模型调用价格进行了调整。

通义千问宣布“GPT-4 级”主力模型 Qwen-Long 降价 97%,一元 200 万 tokens

字节跳动 5 月 15 日正式发布了豆包大模型,宣布大模型价格进入“厘时代”,号称“比行业便宜 99.3%”。今日,阿里云紧随其后抛出重磅炸弹:通义千问 GPT-4 级主力模型 Qwen-Long 宣布降价,API 输入价格从 0.02 元 / 千 tokens 降至 0.0005 元 / 千 tokens,降幅 97%。简单来说,1 块钱可以买 200 万 tokens,相当于 5 本《新华字典》的文字量。这款模型最高支持 1 千万 tokens 长文本输入,降价后约为 GPT-4 价格的 1/400。参考IT之