OpenAI 测试长输出版 GPT-4o:单次 64K tokens,每百万 tokens 输入 6 美元、输出 18 美元

感谢OpenAI 于 7 月 29 日宣布,正在测试长输出版 GPT-4o(GPT-4o Long Output),每次请求最多可输出 64K tokens。目前该版本仅限 Alpha 测试参与者使用,可通过使用“gpt-4o-64k-output-alpha”模型名称来访问长输出版 GPT-4o。OpenAI 表示,由于长输出版本推理成本更高,因此该模型的定价有所增加,每百万 tokens 输入价格为 6 美元(AI在线备注:当前约 43 元人民币)、每百万 tokens 输出价格为 18 美元(当前约 130
感谢OpenAI 于 7 月 29 日宣布,正在测试长输出版 GPT-4o(GPT-4o Long Output),每次请求最多可输出 64K tokens

OpenAI 测试长输出版 GPT-4o:单次 64K tokens,每百万 tokens 输入 6 美元、输出 18 美元

目前该版本仅限 Alpha 测试参与者使用,可通过使用“gpt-4o-64k-output-alpha”模型名称来访问长输出版 GPT-4o。

OpenAI 表示,由于长输出版本推理成本更高,因此该模型的定价有所增加,每百万 tokens 输入价格为 6 美元(AI在线备注:当前约 43 元人民币)、每百万 tokens 输出价格为 18 美元(当前约 130 元人民币)。

OpenAI 于 7 月 18 日发布 GPT-4o mini,号称是“目前功能最强大、成本效益最高的小型模型”。作为对比,GPT-4o mini 每百万 tokens 输入价格仅 15 美分、每百万 tokens 输出价格为  60 美分。

相关资讯

GPT-4o mini 的 6.7/8.3 倍,Claude 3.5 Haiku AI 模型每百万 tokens 输入 1 美元 / 输出 5 美元

Anthropic 昨日(11 月 4 日)发布博文,宣布开发者可以通过第一方 API、Amazon Bedrock 和 Google Cloud 的 Vertex AI,调用 Claude 3.5 Haiku 模型。 Claude 3.5 Haiku 对标的是 OpenAI 的 GPT-4o Mini 和谷歌的 Gemini 1.5 Flash,在多项 AI 基准测试中超越了 Anthropic 上一代中最大的模型 Claude 3 Opus。 Anthropic 表示目前 Claude 3.5 Haiku 模型仅上线文本模态,未来将支持图像输入。

通义千问宣布“GPT-4 级”主力模型 Qwen-Long 降价 97%,一元 200 万 tokens

字节跳动 5 月 15 日正式发布了豆包大模型,宣布大模型价格进入“厘时代”,号称“比行业便宜 99.3%”。今日,阿里云紧随其后抛出重磅炸弹:通义千问 GPT-4 级主力模型 Qwen-Long 宣布降价,API 输入价格从 0.02 元 / 千 tokens 降至 0.0005 元 / 千 tokens,降幅 97%。简单来说,1 块钱可以买 200 万 tokens,相当于 5 本《新华字典》的文字量。这款模型最高支持 1 千万 tokens 长文本输入,降价后约为 GPT-4 价格的 1/400。参考IT之

通义千问GPT-4级主力模型降价97%,1块钱200万tokens

5月21日,阿里云抛出重磅炸弹:通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。这款模型最高支持1千万tokens长文本输入,降价后约为GPT-4价格的1/400,击穿全球底价。Qwen-Long是通义千问的长文本增强版模型,性能对标GPT-4,上下文长度最高达1千万。除了输入价格降至0.0005元/千tokens,Qwen-Long输出价格也直降90