入门价钱越来越便宜了。
在刚刚举行的 ICLR 2024 大会上,智谱AI的大模型技能团队公布了面向激动人心的AGI通用人工智能前景的三大技能趋势,同时预告了GLM的后续升级版本。
今天,智谱大模型开放平台(bigmodel.cn)上线了新的价钱体系。入门级产物 GLM-3 Turbo 模型挪用价钱下调80%!从5元/百万tokens降至1元/百万tokens。1元可以购买100万tokens。
调整后,使用GLM-3 Turbo创作一万条小红书文案(以350字计)将仅需约1元钱,足以让更多企业和个人都能用上这款入门级产物。
来自智谱AI开放平台官网
除了贬价,官方还特别提供用户 tokens 优惠计划——从今天起,新备案开放平台用户赠送额度晋升500%。开放平台新备案用户获赠从500 万tokens晋升至2500万tokens(包含2000万入门级额度和500万企业级额度)。GLM-3 Turbo(最大支持 128k)是大模型开放平台最受欢迎的模型产物,不仅速度快,而且适用于对知识量、推理能力、创造力要求较高的场景,此次调价后更具竞争力,国际其他128k级别大模型的挪用价钱大多从百万tokens数元到几十元不等。企业级产物 GLM-4/GLM-4V 价钱仍维持在 0.1元/千 tokens,百万tokens的价钱为100元,但作为一款能力逼近GPT-4的国际领先大模型,这一价钱还是比较能打。从公开的API 挪用收费来看,OpenAI 最新模型 GPT-4 Turbo 每100万tokens输入/输出价钱分别是10/30美元。Claude 3 Opus 更贵,每百万tokens输入/输出价钱15/75美元。如果折合成人民币,这些数字至少还要乘以7。
SuperBench榜单:GLM-4领先GPT-4系列模型位居第二
对于开发者和企业来说,模型的使用本钱是一个重要考量,大模型贬价有利于吸引更多的开发者和企业客户,扩大其生态圈。华福证券最近发布报告称,大模型本钱优化与算力需求并不是直接的此长彼消,而是互相搭台、相互成就。订价的持续走低有望带来更快的商业化落地,进而会衍生出更多的微调及推理等需求,将逐步盘活国际AI利用及国产算力发展。
这次 API订价更新也体现出智谱AI覆盖开发者用户的决心——单次挪用适合对实时性要求高的中小用户;批量挪用订价更低,则是为数据量大、对本钱敏感的企业及用户量身定制。作为国际利用最为广泛的开放平台,智谱的开放平台上已经聚集了领先数十万的企业和开发者,并且在持续快速增长,过去的半年每日的token消耗增长领先一百倍。比如官方开发的三个挪用工具,网页检索、函数挪用以及知识库,自从1月上线以来挪用次数已经领先 3 亿次。
技能的进步也为降低开发、运行 LLMs 本钱提供了现实可能。例如,从基础设施来看,随着一些老款AI芯片(比如 Nvidia A100 )贬价,大模型培训本钱下降了约60%。英伟达也优化了软件性能,帮助开发者更快训练和运行大模型。研发人员也在模型架构、模型收缩以及GPU挪用等方面探索到一些降本增效的办法。
智谱曾表示,通过模型推理算子优化、模型收缩及硬件高效适配、高性能系统实现以及精细化集群调度等技能将 GLM-3 Turbo的推理本钱收缩到1/5。自大模型开放平台上线以来,在模型效果和推理性能不断晋升的情况下,已累计贬价领先百倍。除了贬价,智谱AI还宣布包括GLM-3 Turbo 以及最先进基座大模型GLM-4在内的GLM系列模型也将迎来更新,目前正在灰度测试中,很快将和广大开发者和利用者见面。