科大讯飞今日宣布,讯飞星火 API 正式开放长上下文版本 —— Spark Pro-128K 大模型,价格最低 0.21 元 / 万 tokens。据介绍,用户与大模型之间的对话交流,通常被认为是短期记忆。一旦对话长度超过了其上下文承载能力,超出的部分就可能会被模型遗忘。区别于传统的文本处理模型,长文本模型具备更准确的文本理解和生成能力以及更强大的跨领域迁移能力,可以一次性理解和生成更多的信息,适用于复杂的对话、长篇内容创作和详细的数据分析等任务,能提升模型解决问题的边界。6 月 27 日,讯飞星火 V4.0 发布
科大讯飞今日宣布,讯飞星火 API 正式开放长上下文版本 —— Spark Pro-128K 大模型,价格最低 0.21 元 / 万 tokens。
据介绍,用户与大模型之间的对话交流,通常被认为是短期记忆。一旦对话长度超过了其上下文承载能力,超出的部分就可能会被模型遗忘。
区别于传统的文本处理模型,长文本模型具备更准确的文本理解和生成能力以及更强大的跨领域迁移能力,可以一次性理解和生成更多的信息,适用于复杂的对话、长篇内容创作和详细的数据分析等任务,能提升模型解决问题的边界。
6 月 27 日,讯飞星火 V4.0 发布,长文本能力全新升级,并针对长文档知识问答的幻觉问题,业界首发内容溯源功能。当用户向星火提问,它回答完,会告诉你为什么这么回答,是参考了哪一段内容,这样当用户没有时间看全文的时候又担心回答可信度时,只要去核实它的溯源就行了。
现在,支持最长上下文的星火大模型 Spark Pro -128k 面向开发者开放 API 调用,价格为 0.21~ 0.30 元 / 万 tokens,个人用户可免费领取 200 万 tokens 的服务量。AI在线附价格表如下: