豆包大模型公布代价清单,支持国内最高并发标准

近期,火山引擎官网更新了豆包大模型的订价详情,全面展示豆包通用模型不同版本、不同规格的代价信息。在模型推理订价大幅低于行业代价的基础上,豆包通用模型的 TPM(每分钟Tokens)、RPM(每分钟请求数)均达到国内最高标准。以豆包主力模型 pro-32k 为例,代价比行业低99%,TPM限额则高达同规格模型的2.7倍到8倍。图:豆包系列模型“后付费”订价信息官方信息显示:在按照 Tokens 实际使用量盘算费用的“后付费”形式下,豆包通用模型-pro、豆包通用模型-lite的 32k 及以下窗口版本,模型限流为 1

近期,火山引擎官网更新了豆包大模型的订价详情,全面展示豆包通用模型不同版本、不同规格的代价信息。在模型推理订价大幅低于行业代价的基础上,豆包通用模型的 TPM(每分钟Tokens)、RPM(每分钟请求数)均达到国内最高标准。以豆包主力模型 pro-32k 为例,代价比行业低99%,TPM限额则高达同规格模型的2.7倍到8倍。

豆包大模型公布代价清单,支持国内最高并发标准

图:豆包系列模型“后付费”订价信息

官方信息显示:在按照 Tokens 实际使用量盘算费用的“后付费”形式下,豆包通用模型-pro、豆包通用模型-lite的 32k 及以下窗口版本,模型限流为 10K RPM 和 800K TPM(以 RPM 和 TPM 其中之一到达上限为准)。国内其他主流模型的 TPM 限额大多在 100K 到 300K 之间,RPM则是在60到120区间,轻量级模型的RPM限额相对较高,但仅仅在300到500之间。

按照 10K RPM 限额盘算,企业客户平均每秒可以同时挪用167次豆包通用模型,从而满足绝大多数业务场景在生产系统的大模型应用需求。这一标准,已经达到 OpenAI 为高级别客户( Tier4 及 Tier5 等级客户)提供的 RPM 上限。

在算力挑战更大的长文本模型上,豆包通用模型 pro 和 lite 的 128k 版本,模型限流为 1K RPM 和 400K TPM,同样大幅高于国内其他的128k长文本模型。

此外,豆包大模型公布了最新的“预付费”模型单位代价。“预付费”是以挪用某个特定模型的 TPM 配额,企业购买后无需再为 Tokens 消耗付费,提前为可以预见的流量波动规划好算力 。

豆包大模型公布代价清单,支持国内最高并发标准

图:豆包系列模型“预付费”模型单位价目表

以豆包通用模型 pro-32k为例:

按照 “预付费”模型单位代价盘算,10K TPM 的包月代价为2000元。10K*60*24*30=43200K。即 432000K Tokens的代价为2000元,平均代价为 0.0046元/千Tokens。

按照“后付费”形式盘算:在模型推理的盘算成本中,推理输出通常占绝大部分比例,业界一般认为推理输出是输出的5倍。根据豆包通用模型 pro-32k 推理输出 0.0008元/千Tokens、推理输出 0.002元/千Tokens 盘算,模型推理的综合代价为 0.001元/千Tokens。

火山引擎方面表示,豆包大模型为客户提供了灵活、经济的付费形式,“后付费”即可满足绝大多数企业客户的业务需求,助力企业以极低成本使用大模型、加速大模型的应用落地。

“豆包模型的超低订价,来源于我们有信心用技术手段优化成本,而不是补贴或是打代价战争夺市场份额。”火山引擎总裁谭待认为,“羊毛出在猪身上”在企业市场行不通,技术驱动的极致性价比才能真正创造价值。火山引擎与字节跳动豆包大模型团队正在密切合作,将持续优化模型效果和推理成本,为企业和开发者提供更好模型、更低成本和更易落地的平台支持。

附:火山引擎官网的模型服务代价文档https://www.volcengine.com/docs/82379/1099320

给TA打赏
共{{data.count}}人
人已打赏
应用

速度更快!新版 SD WebUI Forge 保姆级安置教程

2024-5-21 0:55:58

应用

偶像与高通推出微软Copilot+PC,装备最强AI NPU

2024-5-21 13:07:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索