火山豆包大模型价格清单公布:支持“预付 / 后付”双模式,号称“国内最高并发标准”

字节跳动在 5 月 15 日的“春季火山引擎 FORCE 原动力大会”中推出了豆包大模型(原名“云雀”),该模型主要面向行业场景,能够提供多种图文音频生成能力,IT之家整理如下:豆包通用模型 pro:字节跳动自研 LLM 模型专业版,支持 128k 长文本,全系列可精调,具备更强的理解、生成、逻辑等综合能力,适配问答、总结、创作、分类等丰富场景;豆包通用模型 lite:字节跳动自研 LLM 模型轻量版,对比专业版提供更低 token 成本、更低延迟,为企业提供灵活经济的模型选择;豆包・角色扮演模型:个性化的角色创作

字节跳动在 5 月 15 日的“春季火山引擎 FORCE 原动力大会”中推出了豆包大模型(原名“云雀”),该模型主要面向行业场景,能够提供多种图文音频生成能力,IT之家整理如下:

豆包通用模型 pro:字节跳动自研 LLM 模型专业版,支持 128k 长文本,全系列可精调,具备更强的理解、生成、逻辑等综合能力,适配问答、总结、创作、分类等丰富场景;

豆包通用模型 lite:字节跳动自研 LLM 模型轻量版,对比专业版提供更低 token 成本、更低延迟,为企业提供灵活经济的模型选择;

豆包・角色扮演模型:个性化的角色创作能力,更强的上下文感知和剧情推动能力,满足灵活的角色扮演需求;

豆包・语音合成模型:提供自然生动的语音合成能力,善于表达多种情绪,演绎多种场景;

豆包・声音复刻模型:可在 5 秒内实现声音 1:1 克隆,对音色相似度和自然度进行高度还原,支持声音的跨语种迁移;

豆包・语音识别模型:更高的准确率及灵敏度,更低的语音识别延迟,支持多语种的正确识别;

豆包・文生图模型:更精准的文字理解能力,图文匹配更准确,画面效果更优美,擅长对中国文化元素的创作;

豆包・Function call 模型:提供更加准确的功能识别和参数抽取能力,适合复杂工具调用的场景;

豆包・向量化模型:聚焦向量检索的使用场景,为 LLM 知识库提供核心理解能力,支持多语言。

火山豆包大模型价格清单公布:支持“预付 / 后付”双模式,号称“国内最高并发标准”

火山豆包大模型价格清单公布:支持“预付 / 后付”双模式,号称“国内最高并发标准”

今日火山引擎官网更新了豆包大模型的定价详情,号称“在模型推理定价大幅低于行业价格的基础上,豆包通用模型的 TPM、RPM 均达到国内最高标准”、“价格比行业低 99%,TPM 限额则达同规格模型的 2.7 倍到 8 倍”;此外,相关模型还可使用“预付费”、“后付费”模式:

以豆包通用模型 pro-32k 为例: 按照 “预付费”模型单元价格计算,10K TPM 的包月价格为 2000 元。10K*60*24*30=43200K。

即 432000K Tokens 的价格为 2000 元,平均价格为 0.0046 元 / 千 Tokens。按照“后付费”模式计算:在模型推理的计算成本中,推理输入通常占绝大部分比例,业界一般认为推理输入是输出的 5 倍。

根据豆包通用模型 pro-32k 推理输入 0.0008 元 / 千 Tokens、推理输出 0.002 元 / 千 Tokens 计算,模型推理的综合价格为 0.001 元 / 千 Tokens。

官方表示,国内其他竞品模型的 TPM 限额大多在 100K 到 300K 之间,RPM 则是在 60 到 120 区间,轻量级模型的 RPM 限额相对较高,但仅仅在 300 到 500 之间。按照 10K RPM 限额计算,企业客户平均每秒可以同时调用 167 次豆包通用模型,从而满足绝大多数业务场景在生产系统的大模型应用需求。

官方同时强调,相关标准已经达到 OpenAI 为高级别客户( Tier4 及 Tier5 等级客户)提供的 RPM 上限。在算力挑战更大的长文本模型上,豆包通用模型 pro 和 lite 的 128k 版本,模型限流为 1K RPM 和 400K TPM,同样大幅高于国内其他的 128k 长文本模型,能够帮助企业以较低成本使用大模型、加速大模型应用落地。

相关资讯

豆包大模型公布价格清单,支持国内最高并发标准

近期,火山引擎官网更新了豆包大模型的定价详情,全面展示豆包通用模型不同版本、不同规格的价格信息。在模型推理定价大幅低于行业价格的基础上,豆包通用模型的 TPM(每分钟Tokens)、RPM(每分钟请求数)均达到国内最高标准。以豆包主力模型 pro-32k 为例,价格比行业低99%,TPM限额则高达同规格模型的2.7倍到8倍。图:豆包系列模型“后付费”定价信息官方信息显示:在按照 Tokens 实际使用量计算费用的“后付费”模式下,豆包通用模型-pro、豆包通用模型-lite的 32k 及以下窗口版本,模型限流为 1

豆包大模型日均Tokens使用量破5000亿,模型家族再升级

7月25日,火山引擎2024“AI创新巡展”首站成都站透露了字节豆包大模型的最新进展:截至7月,豆包大模型日均Tokens使用量已突破5000亿,平均每家企业客户日均Tokens使用量较5月15日模型发布时期增长22倍。豆包大模型由字节跳动自研,原名“云雀”,是国内首批通过算法备案的大模型之一,目前通过字节跳动旗下云服务平台火山引擎面向企业提供服务。自发布之初,豆包大模型便主打使用量大、应用场景丰富。据火山引擎副总裁张鑫介绍,在字节内部,有超过50多个业务在使用豆包大模型,覆盖了协同办公、数据分析、文案创作、辅助编

通义千问宣布“GPT-4 级”主力模型 Qwen-Long 降价 97%,一元 200 万 tokens

字节跳动 5 月 15 日正式发布了豆包大模型,宣布大模型价格进入“厘时代”,号称“比行业便宜 99.3%”。今日,阿里云紧随其后抛出重磅炸弹:通义千问 GPT-4 级主力模型 Qwen-Long 宣布降价,API 输入价格从 0.02 元 / 千 tokens 降至 0.0005 元 / 千 tokens,降幅 97%。简单来说,1 块钱可以买 200 万 tokens,相当于 5 本《新华字典》的文字量。这款模型最高支持 1 千万 tokens 长文本输入,降价后约为 GPT-4 价格的 1/400。参考IT之