科大讯飞星火 Spark Pro-128K 大模型开放调用,最低 0.21 元 / 万 tokens

科大讯飞今日宣布,讯飞星火 API 正式开放长上下文版本 —— Spark Pro-128K 大模型,价格最低 0.21 元 / 万 tokens。据介绍,用户与大模型之间的对话交流,通常被认为是短期记忆。一旦对话长度超过了其上下文承载能力,超出的部分就可能会被模型遗忘。区别于传统的文本处理模型,长文本模型具备更准确的文本理解和生成能力以及更强大的跨领域迁移能力,可以一次性理解和生成更多的信息,适用于复杂的对话、长篇内容创作和详细的数据分析等任务,能提升模型解决问题的边界。6 月 27 日,讯飞星火 V4.0 发布

科大讯飞今日宣布,讯飞星火 API 正式开放长上下文版本 —— Spark Pro-128K 大模型,价格最低 0.21 元 / 万 tokens。

据介绍,用户与大模型之间的对话交流,通常被认为是短期记忆。一旦对话长度超过了其上下文承载能力,超出的部分就可能会被模型遗忘。

区别于传统的文本处理模型,长文本模型具备更准确的文本理解和生成能力以及更强大的跨领域迁移能力,可以一次性理解和生成更多的信息,适用于复杂的对话、长篇内容创作和详细的数据分析等任务,能提升模型解决问题的边界

6 月 27 日,讯飞星火 V4.0 发布,长文本能力全新升级,并针对长文档知识问答的幻觉问题,业界首发内容溯源功能。当用户向星火提问,它回答完,会告诉你为什么这么回答,是参考了哪一段内容,这样当用户没有时间看全文的时候又担心回答可信度时,只要去核实它的溯源就行了。

图片

现在,支持最长上下文的星火大模型 Spark Pro -128k 面向开发者开放 API 调用,价格为 0.21~ 0.30 元 / 万 tokens,个人用户可免费领取 200 万 tokens 的服务量。AI在线附价格表如下:

图片

科大讯飞星火 Spark Pro-128K 大模型开放调用,最低 0.21 元 / 万 tokens

相关资讯

无一大模型及格!北大 / 通研院提出超难基准 LooGLE,专门评估长文本理解生成

在长文本理解能力这块,竟然没有一个大模型及格!北大联合北京通用人工智能研究院提出了一个新基准数据集:LooGLE,专门用于测试和评估大语言模型(LLMs)长上下文理解能力。该数据集既能够评估 LLMs 对长文本的处理和检索能力,又可以评估其对文本长程依赖的建模和理解能力。结果不评不知道,一评估发现这些模型在复杂的长依赖任务中的多信息检索、时间重排序、计算、理解推理能力表现均不乐观。比如像 Claude3-200k,GPT4-32k、GPT4-8k、GPT3.5-turbo-6k、LlamaIndex 这种商业模型,

阿里云百炼上线百万长文本模型Qwen2.5 -Turbo,百万tokens仅需0.3元

11月20日消息,最新的Qwen2.5-Turbo已在阿里云百炼上线,该模型支持100万超长上下文,相当于100万个英文单词或150万个汉字,在多个长文本评测集上的性能表现超越GPT-4。 即日起,所有用户可在阿里云百炼调用Qwen2.5-Turbo API,百万tokens仅需0.3元。 全新的Qwen2.5-Turbo在1M长度的超长文本检索(Passkey Retrieval)任务中的准确率可达到100%,在长文本评测集RULER上获得93.1分,超越GPT-4;在LV-Eval、LongBench-Chat等更加接近真实场景的长文本任务中,Qwen2.5-Turbo在多数维度超越了GPT-4o-mini;此外,在MMU、LiveBench等短文本基准上Qwen2.5-Turbo的表现也非常优秀,在大部分任务上的表现显著超越之前上下文长度为1M tokens的开源模型。

讯飞星火大模型 V3.5 春季上新,V4.0 官宣 6 月 27 日发布

感谢科大讯飞今日官宣,讯飞星火大模型 V3.5 春季上新,科大讯飞董事长刘庆峰发布讯飞星火大模型一系列新功能。刘庆峰表示,目前星火大模型通用长文本能力,包括长文档信息抽取、长文档知识问答、长文档归纳总结、长文档文本生成等,总体已经达到 GPT-4 Turbo 今年 4 月最新长文本版本的 97% 的水平,而在多个垂直领域的知识问答任务上,星火大模型长文本总体水平已经超过 GPT-4 Turbo。讯飞星火大模型 V3.5 进行了多项更新,IT之家汇总如下:支持长文本、长图文、长语音的大模型上新,首发星火图文识别大模型