支持 100 万 Tokens 上下文,阿里通义千问推出 Qwen2.5-1M 开源模型

通义千问本次发布了两个新的开源模型,分别是 Qwen2.5-7B-Instruct-1M 和 Qwen2.5-14B-Instruct-1M,这是通义千问首次将开源的 Qwen 模型的上下文扩展到 1M 长度。
感谢阿里通义千问今日宣布,正式推出开源的 Qwen2.5-1M 模型及其对应的推理框架支持。

AI在线从官方介绍获悉,通义千问本次发布了两个新的开源模型,分别是 Qwen2.5-7B-Instruct-1M 和 Qwen2.5-14B-Instruct-1M,这是通义千问首次将开源的 Qwen 模型的上下文扩展到 1M 长度

为了帮助开发者更高效地部署 Qwen2.5-1M 系列模型,Qwen 团队完全开源了基于 vLLM 的推理框架,并集成了稀疏注意力方法,使得该框架在处理 1M 标记输入时的速度提升了 3 倍到 7 倍

  • 长上下文任务

在上下文长度为 100 万 Tokens 的大海捞针(Passkey Retrieval)任务中,Qwen2.5-1M 系列模型能够准确地从 1M 长度的文档中检索出隐藏信息,其中仅有 7B 模型出现了少量错误。

图片

对于更复杂的长上下文理解任务,选择了 RULER、LV-Eval 和 LongbenchChat 测试集。

图片

图片

从这些结果中,Qwen 得出以下几点关键结论:

显著超越 128K 版本:Qwen2.5-1M 系列模型在大多数长上下文任务中显著优于之前的 128K 版本,特别是在处理超过 64K 长度的任务时表现出色。

性能优势明显:Qwen2.5-14B-Instruct-1M 模型不仅击败了 Qwen2.5-Turbo,还在多个数据集上稳定超越 GPT-4o-mini,为长上下文任务提供了开源模型的选择。

  • 短序列任务

图片

可以发现:

Qwen2.5-7B-Instruct-1M 和 Qwen2.5-14B-Instruct-1M 在短文本任务上的表现与其 128K 版本相当,确保了基本能力没有因为增加了长序列处理能力而受到影响。

与 GPT-4o-mini 相比,Qwen2.5-14B-Instruct-1M 和 Qwen2.5-Turbo 在短文本任务上实现了相近的性能,同时上下文长度是 GPT-4o-mini 的八倍。

  • 模型链接:https://www.modelscope.cn/collections/Qwen25-1M-d6cf9fd33f0a40

  • 技术报告:https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen2.5-1M/Qwen2_5_1M_Technical_Report.pdf

  • 体验链接:https://modelscope.cn/studios/Qwen/Qwen2.5-1M-Demo

相关资讯

先让不懂代码的来测?通义这个新产品,代码刚写完,预览就出来了

这才是未来 AI 该有的样子?  奇怪了。 一款 AI 代码工具刚发布,限量测试却要求「不懂代码」的人优先。

阿里巴巴 CEO 吴泳铭:通义千问 API 调用价格一年下降 97%

吴泳铭透露,过去一年,阿里巴巴在 AI 基础设施方面进行了高强度投入。得益于规模效应和技术进步,算力成本持续降低。其中,阿里大模型“通义千问”的 API 调用价格在一年内降幅高达 97%,百万 token 调用成本最低已降至 0.5 元。他认为,“就像足够便宜的电力带来电气化时代的大爆发,足够便宜的算力终将把我们带进智能化时代”。

吴泳铭:阿里已发布超 100 个开源模型,超 30 万家企业接入通义大模型

据其介绍,目前已有超过30万家企业接入通义大模型,利用 AI 技术重塑代码开发、药物研发、生产制造等多个行业。