tokens
2025年AI大模型价格战加剧,相关概念股受到资金追捧
近年来,人工智能(AI)大模型技术发展迅猛,随之而来的降价潮使得市场竞争愈发激烈。 根据数据宝的最新统计,2025年这一降价趋势仍将持续。 尤其是在过去的一段时间里,字节跳动、阿里云等企业纷纷宣布降低旗下 AI 大模型的使用成本,引发了业界的广泛关注。
2/27/2025 9:49:00 AM
AI在线
阿里云百炼上线百万长文本模型Qwen2.5 -Turbo,百万tokens仅需0.3元
11月20日消息,最新的Qwen2.5-Turbo已在阿里云百炼上线,该模型支持100万超长上下文,相当于100万个英文单词或150万个汉字,在多个长文本评测集上的性能表现超越GPT-4。 即日起,所有用户可在阿里云百炼调用Qwen2.5-Turbo API,百万tokens仅需0.3元。 全新的Qwen2.5-Turbo在1M长度的超长文本检索(Passkey Retrieval)任务中的准确率可达到100%,在长文本评测集RULER上获得93.1分,超越GPT-4;在LV-Eval、LongBench-Chat等更加接近真实场景的长文本任务中,Qwen2.5-Turbo在多数维度超越了GPT-4o-mini;此外,在MMU、LiveBench等短文本基准上Qwen2.5-Turbo的表现也非常优秀,在大部分任务上的表现显著超越之前上下文长度为1M tokens的开源模型。
11/20/2024 4:51:00 PM
新闻助手
GPT-4o mini 的 6.7/8.3 倍,Claude 3.5 Haiku AI 模型每百万 tokens 输入 1 美元 / 输出 5 美元
Anthropic 昨日(11 月 4 日)发布博文,宣布开发者可以通过第一方 API、Amazon Bedrock 和 Google Cloud 的 Vertex AI,调用 Claude 3.5 Haiku 模型。 Claude 3.5 Haiku 对标的是 OpenAI 的 GPT-4o Mini 和谷歌的 Gemini 1.5 Flash,在多项 AI 基准测试中超越了 Anthropic 上一代中最大的模型 Claude 3 Opus。 Anthropic 表示目前 Claude 3.5 Haiku 模型仅上线文本模态,未来将支持图像输入。
11/5/2024 1:47:02 PM
故渊
谷歌最便宜 AI 模型 Gemini 1.5 Flash 8B 将商用:腰斩击穿价 0.15 美元买百万 tokens 输出
科技媒体 NeoWin 昨日(10 月 4 日)发布博文,报道称谷歌公司即将商用 Gemini 1.5 Flash 8B 模型,成为谷歌公司最便宜的 AI 模型。AI在线曾于今年 8 月报道,谷歌公司推出 3 款 Gemini 实验性模型,其中 Gemini 1.5 Flash 8B 是 Gemini 1.5 Flash 的更小尺寸模型,拥有 80 亿参数,专为多模态任务而设计,包括大容量任务和长文本摘要任务。相比较原版 Gemini 1.5 Flash,Gemini 1.5 Flash 8B 延迟更低,特别适合聊
10/5/2024 12:40:26 PM
故渊
AI 大语言模型价格战将启?谷歌本月下调 Gemini 1.5 Flash 费用:降幅最高 78.6%
大语言模型的价格战要来了吗?谷歌公司昨日(8 月 2 日)更新价格页面,宣布将于 2024 年 8 月 12 日开始,Gemini 1.5 Flash 模型每百万输入 tokens 成本为 0.075 美元、每百万输出 tokens 成本为 0.3 美元(AI在线备注:当前约 2.2 元人民币)。这让 Gemini 1.5 Flash 模型的使用成本,比 OpenAI 的 GPT-4o mini 便宜近 50%。根据计算,Gemini 1.5 Flash 模型费用输入费用比此前降低 78.6%,输出费用比此前降低
8/3/2024 2:44:56 PM
故渊
OpenAI 测试长输出版 GPT-4o:单次 64K tokens,每百万 tokens 输入 6 美元、输出 18 美元
感谢OpenAI 于 7 月 29 日宣布,正在测试长输出版 GPT-4o(GPT-4o Long Output),每次请求最多可输出 64K tokens。目前该版本仅限 Alpha 测试参与者使用,可通过使用“gpt-4o-64k-output-alpha”模型名称来访问长输出版 GPT-4o。OpenAI 表示,由于长输出版本推理成本更高,因此该模型的定价有所增加,每百万 tokens 输入价格为 6 美元(AI在线备注:当前约 43 元人民币)、每百万 tokens 输出价格为 18 美元(当前约 130
8/1/2024 3:47:55 PM
沛霖(实习)
豆包大模型日均Tokens使用量破5000亿,模型家族再升级
7月25日,火山引擎2024“AI创新巡展”首站成都站透露了字节豆包大模型的最新进展:截至7月,豆包大模型日均Tokens使用量已突破5000亿,平均每家企业客户日均Tokens使用量较5月15日模型发布时期增长22倍。豆包大模型由字节跳动自研,原名“云雀”,是国内首批通过算法备案的大模型之一,目前通过字节跳动旗下云服务平台火山引擎面向企业提供服务。自发布之初,豆包大模型便主打使用量大、应用场景丰富。据火山引擎副总裁张鑫介绍,在字节内部,有超过50多个业务在使用豆包大模型,覆盖了协同办公、数据分析、文案创作、辅助编
7/25/2024 3:47:00 PM
新闻助手
科大讯飞星火 Spark Pro-128K 大模型开放调用,最低 0.21 元 / 万 tokens
科大讯飞今日宣布,讯飞星火 API 正式开放长上下文版本 —— Spark Pro-128K 大模型,价格最低 0.21 元 / 万 tokens。据介绍,用户与大模型之间的对话交流,通常被认为是短期记忆。一旦对话长度超过了其上下文承载能力,超出的部分就可能会被模型遗忘。区别于传统的文本处理模型,长文本模型具备更准确的文本理解和生成能力以及更强大的跨领域迁移能力,可以一次性理解和生成更多的信息,适用于复杂的对话、长篇内容创作和详细的数据分析等任务,能提升模型解决问题的边界。6 月 27 日,讯飞星火 V4.0 发布
7/18/2024 6:24:36 PM
汪淼
腾讯混元大模型全面降价!混元-lite即日起免费
5月22日,腾讯云公布全新大模型升级方案。主力模型之一混元-lite模型,API输入输出总长度计划从目前的4k升级到256k,价格从0.008元/千tokens调整为全面免费。混元-standard API输入价格从0.01元/千tokens降至0.0045元/千tokens ,下降55%,API输出价格从0.01元/千tokens降至0.005元/千tokens,下降50%。新上线的混元-standard-256k,具备处理超过38万字符的超长文本能力,API输入价格下调至0.015元/千tokens,下降87.
5/22/2024 6:05:00 PM
新闻助手
腾讯混元大模型全面降价,混元-lite 即日起免费
感谢今天,腾讯云公布全新大模型价格方案,其中主力模型之一混元-lite 模型,API 输入输出总长度计划从目前的 4k 升级到 256k,价格从 0.008 元 / 千 tokens 调整为全面免费。混元-standard API 输入价格从 0.01 元 / 千 tokens 降至 0.0045 元 / 千 tokens ,下降 55%,API 输出价格从 0.01 元 / 千 tokens 降至 0.005 元 / 千 tokens,下降 50%。新上线的混元-standard-256k,具备处理超过 38 万
5/22/2024 6:03:03 PM
远洋
通义千问GPT-4级主力模型降价97%,1块钱200万tokens
5月21日,阿里云抛出重磅炸弹:通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。这款模型最高支持1千万tokens长文本输入,降价后约为GPT-4价格的1/400,击穿全球底价。Qwen-Long是通义千问的长文本增强版模型,性能对标GPT-4,上下文长度最高达1千万。除了输入价格降至0.0005元/千tokens,Qwen-Long输出价格也直降90
5/21/2024 4:48:00 PM
新闻助手
豆包大模型公布价格清单,支持国内最高并发标准
近期,火山引擎官网更新了豆包大模型的定价详情,全面展示豆包通用模型不同版本、不同规格的价格信息。在模型推理定价大幅低于行业价格的基础上,豆包通用模型的 TPM(每分钟Tokens)、RPM(每分钟请求数)均达到国内最高标准。以豆包主力模型 pro-32k 为例,价格比行业低99%,TPM限额则高达同规格模型的2.7倍到8倍。图:豆包系列模型“后付费”定价信息官方信息显示:在按照 Tokens 实际使用量计算费用的“后付费”模式下,豆包通用模型-pro、豆包通用模型-lite的 32k 及以下窗口版本,模型限流为 1
5/21/2024 10:55:00 AM
新闻助手
通义千问宣布“GPT-4 级”主力模型 Qwen-Long 降价 97%,一元 200 万 tokens
字节跳动 5 月 15 日正式发布了豆包大模型,宣布大模型价格进入“厘时代”,号称“比行业便宜 99.3%”。今日,阿里云紧随其后抛出重磅炸弹:通义千问 GPT-4 级主力模型 Qwen-Long 宣布降价,API 输入价格从 0.02 元 / 千 tokens 降至 0.0005 元 / 千 tokens,降幅 97%。简单来说,1 块钱可以买 200 万 tokens,相当于 5 本《新华字典》的文字量。这款模型最高支持 1 千万 tokens 长文本输入,降价后约为 GPT-4 价格的 1/400。参考IT之
5/21/2024 10:41:25 AM
问舟
火山豆包大模型价格清单公布:支持“预付 / 后付”双模式,号称“国内最高并发标准”
字节跳动在 5 月 15 日的“春季火山引擎 FORCE 原动力大会”中推出了豆包大模型(原名“云雀”),该模型主要面向行业场景,能够提供多种图文音频生成能力,IT之家整理如下:豆包通用模型 pro:字节跳动自研 LLM 模型专业版,支持 128k 长文本,全系列可精调,具备更强的理解、生成、逻辑等综合能力,适配问答、总结、创作、分类等丰富场景;豆包通用模型 lite:字节跳动自研 LLM 模型轻量版,对比专业版提供更低 token 成本、更低延迟,为企业提供灵活经济的模型选择;豆包・角色扮演模型:个性化的角色创作
5/21/2024 10:33:05 AM
漾仔
- 1
资讯热榜
企业级模型推理部署工具vllm使用指南 - 部署最新deepseek-v3-0324模型
上海AI实验室开源InternVL3系列多模态大型语言模型
50组多风格提示词,全面测评Midjourney V7生图效果!
全日程揭晓!ICLR 2025论文分享会我们北京见
斯坦福2025 AI指数出炉!中美AI对决差距仅剩0.3%,DeepSeek领衔
5分钟直出46页论文!谷歌Deep Research完爆OpenAI,最强Gemini 2.5加持
击败DeepSeek-R1!豆包新推理模型仅用前者参数量1/3!还将开源两个基准,瞄准通用推理能力!
ChatGPT重大更新,能翻出所有历史对话,网友被AI聊破防了
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
DeepSeek
AI绘画
数据
机器人
谷歌
模型
大模型
Midjourney
智能
用户
学习
开源
GPT
微软
Meta
AI创作
图像
技术
论文
Stable Diffusion
马斯克
Gemini
算法
蛋白质
生成式
芯片
代码
英伟达
神经网络
腾讯
计算
研究
Sora
AI for Science
3D
AI设计
Anthropic
机器学习
GPU
开发者
场景
华为
预测
伟达
Transformer
百度
深度学习
苹果
模态
AI视频
驾驶
文本
xAI
搜索
人形机器人
大语言模型
Copilot
神器推荐
LLaMA
字节跳动
具身智能
Claude
算力
安全
应用
视频生成
科技
视觉
亚马逊
干货合集
2024
AGI
特斯拉
DeepMind
训练