从 DeepSeek 火热,到李飞飞团队新成果,“幕后高手”竟是它

最近 AI 大模型领域可以说是热点话题不断,DeepSeek 的热潮还未消退,国内李飞飞团队提出的一种模型训练新方法又在行业里引发热议

最近 AI 大模型领域可以说是热点话题不断,DeepSeek 的热潮还未消退,国内李飞飞团队提出的一种模型训练新方法又在行业里引发热议。

具体来说,他们以阿里云通义千问 Qwen2.5-32B-Instruct 开源模型为底座,在 16 块 H100 GPU 上进行监督微调,仅用时 26 分钟便训练出了新模型 s1-32B。令人惊叹的是,该模型在数学及编码能力上取得了与 OpenAI 的 o1 和 DeepSeek 的 R1 等尖端推理模型相当的效果,甚至在竞赛数学问题上的表现比 o1-preview 高出 27%。

未命名 2

同时值得关注的是,DeepSeek 早在之前也曾透露,将 DeepSeek-R1 的推理能力蒸馏 6 个模型开源给社区,其中 4 个模型正是基于 Qwen 开发的。基于 Qwen-32B 蒸馏的模型,在多项能力上实现了对标 OpenAI o1-mini 的效果。

图片 1

这表明,Qwen 模型不仅能够满足顶尖团队对模型性能的高要求,还能为不同团队提供多样化的开发路径,助力他们在各自的研究方向上取得突破。

一时间,在开源社区备受追捧的通义千问 Qwen 模型,因这一轮推理模型技术新浪潮又一次成为大家关注的焦点。

李飞飞团队与 DeepSeek 纷纷选择 Qwen 作为基座模型,已经足以引发业界的关注和广泛讨论,而这一现象背后,不仅是 Qwen 模型自身强大的性能与独特优势的体现,更是开源理念推动技术进步的生动案例。

那么 Qwen 模型究竟强在哪里?又为什么如此受到热捧呢?AI在线认为主要有以下几点原因。

首先,是阿里云 Qwen 模型具有强劲的性能优势。

据了解,阿里云通义千问 Qwen 模型自 2023 年 8 月起相继开源了 Qwen、Qwen1.5、Qwen2、Qwen2.5 等 4 代模型,涵盖了大语言模型、多模态模型、数学模型和代码模型等数十款。这些模型在全球多个权威榜单上屡次斩获“全球开源冠军”,性能全球领先。

例如,在 HuggingFace 的 Open LLM Leaderboard、Chatbot Arena 大模型盲测榜单、司南 OpenCompass 等多个国内外知名榜单上,Qwen 模型都展现出了卓越的实力。其强大的性能为开发者提供了坚实的基础,使得基于 Qwen 开发的模型能够在各种应用场景中表现出色。

除了强劲的性能,Qwen 模型的开源策略也是是其受到广泛欢迎的重要原因之一。

要知道,阿里云率先实现了“全尺寸、全模态、多场景”的开源,从 1.5B 到 72B 乃至 110B,Qwen 开源的模型尺寸及版本覆盖面最广。这种多样化的选择为开发者和企业提供了极大的便利,无论是小型项目还是大规模应用,都能找到适合的 Qwen 模型版本。2024 年,仅 Qwen2.5-1.5B-Instruct 这款模型,就占到了全球模型下载量的 26.6%,远高于第二名 Llama-3.1-8B-Instruct-GGUF 的 6.44%。同时仅视觉理解 Qwen-VL 及 Qwen2-VL 两款模型,全球下载量就突破 3200 万次,一周前,Qwen2.5-VL 全新升级,又引发新一轮开源社区狂热。这充分说明了 Qwen 模型在开源社区中的受欢迎程度。

image.png

第三点,Qwen 模型的火热还得益于其庞大的衍生模型群。

截至目前,海内外开源社区中 Qwen 的衍生模型数量已突破 9 万,超越了 Llama 系列衍生模型,成为世界最大的生成式语言模型族群。这一庞大的衍生模型群不仅体现了 Qwen 模型的广泛影响力,也反映了其在技术上的可扩展性和适应性。全球 AI 模型开发者都可以基于 Qwen 进行不同技术的差异化比较,从而进一步推动了 Qwen 的火热。这种开源生态的繁荣,使得 Qwen 成为了开源社区事实上最重要的标杆基座模型。

通过以上三点的分析,我们其实已经可以得出结论:Qwen 模型性能强劲,开源尺寸多样化,并且拥有全球最大的衍生模型群,已经取代 Llama 成为开源社区事实上最重要的标杆基座模型。

总之,阿里云通义千问 Qwen 模型因其强劲的性能、开源与尺寸多样化以及庞大的衍生模型群等优势,成为了李飞飞团队和 DeepSeek 的共同选择。这不仅展示了 Qwen 模型在人工智能领域的卓越实力,也体现了开源理念在推动技术创新、促进开源生态建设和助力行业应用落地等方面的重要价值。随着人工智能技术的不断发展,我们有理由相信,Qwen 模型将继续引领开源潮流,为全球人工智能的发展贡献更多力量。

相关资讯

通义千问 Qwen 2.5-Max 超大规模 MoE 模型发布:号称优于 Deepseek V3 等竞品,暂未开源

据介绍,通义千问 Qwen 2.5-Max 使用超过 20 万亿 token 的预训练数据及精心设计的后训练方案进行训练。

AI 发现16万种新RNA病毒成果登上《Cell》后,我们和阿里云算法专家贺勇聊了聊

近期,AI for Science 领域的惊喜不断,持续在物理、化学、生物领域开花结果。 不仅诺贝尔物理和化学奖双双颁给 AI 领域的科学家,阿里云与中山大学的科研也带来了RNA病毒寻找的突破,国际顶级学术期刊《Cell》收录了这一研究论文。 《基于人工智能探索和记录隐藏的RNA病毒世界》论文提出深度学习模型"LucaProt",用于快速准确判别RNA病毒,颠覆传统病毒发现方法。

720亿参数大模型都拿来开源了!通义千问开源全家桶,最小18亿模型端侧都能跑

目前,通义千问开源全家桶已经有了 18 亿、70 亿、140 亿、720 亿参数量的 4 款基础开源模型,以及跨语言、图像、语音等多种模态的多款开源模型。「Qwen-72B 模型将于 11 月 30 日发布。」前几天,X 平台上的一位网友发布了这样一则消息,消息来源是一段对话。他还说,「如果(新模型)像他们的 14B 模型一样,那将是惊人的。」有位网友转发了帖子并配文「千问模型最近表现不错」。这句话里的 14B 模型指的是阿里云在 9 月份开源的通义千问 140 亿参数模型 Qwen-14B。当时,这个模型在多个权