华为昇腾适配支持 DeepSeek-R1 复现项目 Open R1

华为技术有限公司今日宣布,MindSpeed 支持 DeepSeek V3 预训练、微调,同时昇腾还适配支持 DeepSeek-R1 复现项目 Open R1。
感谢华为技术有限公司今日宣布,MindSpeed 支持 DeepSeek V3 预训练、微调,同时昇腾还适配支持 DeepSeek-R1 复现项目 Open R1。

据介绍,MindSpeed 现已支持 DeepSeek V3 模型预训练与微调。所使用的并行配置与模型参数如下:

图片

DeepSeek 团队通过知识蒸馏,实现了较小的模型也能具备较强的推理能力。华为称已基于昇腾完成蒸馏流程验证,并表示经过蒸馏后的 Qwen 模型在对应领域上的评分获得显著提升,开发者可基于此参考,完成自定义蒸馏模型训练

另外,华为昇腾还适配完成 Open R1 项目的重要步骤:打通 Open R1-Zero 的 GRPO 流程,同时支持通过 vLLM 等生态库实现训练过程中的数据生成。

据介绍,Open R1 项目是 Hugging Face 官方开源的对 DeepSeek-R1 模型流程进行完全开放式复现的项目,是当前主流复现项目之一,当前已有 18K+ star 数,其目标是构建 DeekSeek-R1 训练流程的缺失部分。

图片

相关资讯

开源22万条DeepSeek R1的高质量数据!你也能复现DeepSeek了

DeepSeek 在海内外搅起的惊涛巨浪,余波仍在汹涌。 当中国大模型撕开硅谷的防线之后,在预设中总是落后半拍的中国 AI 军团,这次竟完成了一次反向技术输出,引发了全球范围内复现 DeepSeek 的热潮。 DeepSeek-R1 虽然开源,但也没有完全开源,训练数据、训练脚本等关键信息并未完全公布。

从DeepSeek-V3发布谈大模型的技术突破与未来机遇

在AI技术日新月异的今天,大型语言模型已成为推动AI发展的重要力量。 2024年12月26日,DeepSeek AI正式发布了其最新的大型语言模型——DeepSeek-V3。 这款开源模型采用了高达6710亿参数的混合专家(MoE)架构,每秒能够处理60个token,比V2快了3倍。

七彩虹推出 “虹光 AI” 助手接入全速版 DeepSeek

七彩虹科技正式宣布,其全新的 “虹光 AI” 智能模型助手已全面接入满血版 DeepSeek R1模型。 这一升级使得七彩虹的笔记本产品在性能和推理效率上得到了显著提升。 此次更新的 “虹光 AI” 助手,基于当前热门的 Transformer 架构,并采用了 MLA 与 Deep Seek MoE 技术,显著降低了内存占用,减少了缓存需求,从而提升了整体的推理效率。