-
GPT-4o mini 的 6.7/8.3 倍,Claude 3.5 Haiku AI 模型每百万 tokens 输入 1 美元 / 输出 5 美元
Anthropic 昨日(11 月 4 日)发布博文,宣布开发者可以通过第一方 API、Amazon Bedrock 和 Google Cloud 的 Vertex AI,调用 Claude 3.5 Haiku 模型。 Claude 3.5 Haiku 对标的是 OpenAI 的 GPT-4o Mini 和谷歌的 Gemini 1.5 Flash,在多项 AI 基准测试中超越了 Anthropic…- 4
- 0
-
谷歌最便宜 AI 模型 Gemini 1.5 Flash 8B 将商用:腰斩击穿价 0.15 美元买百万 tokens 输出
科技媒体 NeoWin 昨日(10 月 4 日)发布博文,报道称谷歌公司即将商用 Gemini 1.5 Flash 8B 模型,成为谷歌公司最便宜的 AI 模型。AI在线曾于今年 8 月报道,谷歌公司推出 3 款 Gemini 实验性模型,其中 Gemini 1.5 Flash 8B 是 Gemini 1.5 Flash 的更小尺寸模型,拥有 80 亿参数,专为多模态任务而设计,包括大容量任务和长…- 3
- 0
-
AI 大语言模型价格战将启?谷歌本月下调 Gemini 1.5 Flash 费用:降幅最高 78.6%
大语言模型的价格战要来了吗?谷歌公司昨日(8 月 2 日)更新价格页面,宣布将于 2024 年 8 月 12 日开始,Gemini 1.5 Flash 模型每百万输入 tokens 成本为 0.075 美元、每百万输出 tokens 成本为 0.3 美元(AI在线备注:当前约 2.2 元人民币)。这让 Gemini 1.5 Flash 模型的使用成本,比 OpenAI 的 GPT-4o mini …- 4
- 0
-
OpenAI 测试长输出版 GPT-4o:单次 64K tokens,每百万 tokens 输入 6 美元、输出 18 美元
感谢OpenAI 于 7 月 29 日宣布,正在测试长输出版 GPT-4o(GPT-4o Long Output),每次请求最多可输出 64K tokens。目前该版本仅限 Alpha 测试参与者使用,可通过使用“gpt-4o-64k-output-alpha”模型名称来访问长输出版 GPT-4o。OpenAI 表示,由于长输出版本推理成本更高,因此该模型的定价有所增加,每百万 tokens 输入…- 12
- 0
-
豆包大模型日均Tokens使用量破5000亿,模型家族再升级
7月25日,火山引擎2024“AI创新巡展”首站成都站透露了字节豆包大模型的最新进展:截至7月,豆包大模型日均Tokens使用量已突破5000亿,平均每家企业客户日均Tokens使用量较5月15日模型发布时期增长22倍。豆包大模型由字节跳动自研,原名“云雀”,是国内首批通过算法备案的大模型之一,目前通过字节跳动旗下云服务平台火山引擎面向企业提供服务。自发布之初,豆包大模型便主打使用量大、应用场景丰…- 20
- 0
-
科大讯飞星火 Spark Pro-128K 大模型开放调用,最低 0.21 元 / 万 tokens
科大讯飞今日宣布,讯飞星火 API 正式开放长上下文版本 —— Spark Pro-128K 大模型,价格最低 0.21 元 / 万 tokens。据介绍,用户与大模型之间的对话交流,通常被认为是短期记忆。一旦对话长度超过了其上下文承载能力,超出的部分就可能会被模型遗忘。区别于传统的文本处理模型,长文本模型具备更准确的文本理解和生成能力以及更强大的跨领域迁移能力,可以一次性理解和生成更多的信息,适…- 10
- 0
-
腾讯混元大模型全面降价!混元-lite即日起收费
5月22日,腾讯云公布崭新大模型晋级规划。主力模型之一混元-lite模型,API输入输入总长度计划从目前的4k晋级到256k,价钱从0.008元/千tokens调整为全面收费。混元-standard API输入价钱从0.01元/千tokens降至0.0045元/千tokens ,下落55%,API输入价钱从0.01元/千tokens降至0.005元/千tokens,下落50%。新上线的混元-sta…- 7
- 0
-
腾讯混元大模型全面降价,混元-lite 即日起收费
感谢今天,腾讯云公布全新大模型代价方案,其中主力模型之一混元-lite 模型,API 输入输入总长度计划从目前的 4k 进级到 256k,代价从 0.008 元 / 千 tokens 调整为全面收费。混元-standard API 输入代价从 0.01 元 / 千 tokens 降至 0.0045 元 / 千 tokens ,下落 55%,API 输入代价从 0.01 元 / 千 tokens 降…- 2
- 0
-
通义千问GPT-4级主力模型降价97%,1块钱200万tokens
5月21日,阿里云抛出重磅炸弹:通义千问GPT-4级主力模型Qwen-Long,API输出价值从0.02元/千tokens降至0.0005元/千tokens,直降97%。这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。这款模型最高支持1千万tokens长文本输出,降价后约为GPT-4价值的1/400,击穿全球底价。Qwen-Long是通义千问的长文本增强版模型,机能对标…- 7
- 0
-
豆包大模型公布代价清单,支持国内最高并发标准
近期,火山引擎官网更新了豆包大模型的订价详情,全面展示豆包通用模型不同版本、不同规格的代价信息。在模型推理订价大幅低于行业代价的基础上,豆包通用模型的 TPM(每分钟Tokens)、RPM(每分钟请求数)均达到国内最高标准。以豆包主力模型 pro-32k 为例,代价比行业低99%,TPM限额则高达同规格模型的2.7倍到8倍。图:豆包系列模型“后付费”订价信息官方信息显示:在按照 Tokens 实际…- 6
- 0
-
通义千问公布“GPT-4 级”主力模型 Qwen-Long 提价 97%,一元 200 万 tokens
字节跳动 5 月 15 日正式发布了豆包大模型,公布大模型价值进入“厘时代”,号称“比行业便宜 99.3%”。今日,阿里云紧随其后抛出重磅炸弹:通义千问 GPT-4 级主力模型 Qwen-Long 公布提价,API 输出价值从 0.02 元 / 千 tokens 降至 0.0005 元 / 千 tokens,降幅 97%。简单来说,1 块钱可以买 200 万 tokens,相当于 5 本《新华字典…- 46
- 0
-
火山豆包大模型代价清单公布:支撑“预付 / 后付”双模式,号称“国内最高并发标准”
字节跳动在 5 月 15 日的“春季火山引擎 FORCE 原动力大会”中推出了豆包大模型(原名“云雀”),该模型主要面向行业场景,能够供给多种图文音频生成才能,IT之家整理如下:豆包通用模型 pro:字节跳动自研 LLM 模型专业版,支撑 128k 长文本,全系列可精调,具备更强的理解、生成、逻辑等综合才能,适配问答、总结、创作、分类等丰富场景;豆包通用模型 lite:字节跳动自研 LLM 模型轻…- 4
- 0
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!