AI在线 AI在线

英伟达含量为零:华为密集模型盘古 Ultra 性能比肩 DeepSeek-R1,纯昇腾集群训练

作者:汪淼
2025-04-15 12:18
华为利用纯昇腾集群训练出的盘古 Ultra,在数学竞赛、编程等推理任务当中,和 R1 打得有来有回。关键是模型参数量只有 135B,整个训练过程零英伟达含量,而且没有出现损失尖峰。

密集模型的推理能力也能和 DeepSeek-R1 掰手腕了?

华为利用纯昇腾集群训练出的盘古 Ultra,在数学竞赛、编程等推理任务当中,和 R1 打得有来有回。

关键是模型参数量只有 135B,整个训练过程零英伟达含量,而且没有出现损失尖峰。

英伟达含量为零:华为密集模型盘古 Ultra 性能比肩 DeepSeek-R1,纯昇腾集群训练

通过改进的模型架构和系统优化策略,盘古 Ultra 拥有优异的性能表现和 52% 以上的算力利用率。

并且有网友表示,训练过程中没有出现损失尖峰这一特征,似乎此前从未实现。

英伟达含量为零:华为密集模型盘古 Ultra 性能比肩 DeepSeek-R1,纯昇腾集群训练

135B 密集模型比肩 DeepSeek-R1

作为一个参数量 135B 密集模型,盘古 Ultra 达到了同尺度密集模型的最优表现,甚至可以与 DeepSeek-R1 等参数量更大的 MoE 模型竞争。

在预训练阶段模型的评测中,盘古 Ultra 在绝大部分英文基准任务和全部中文任务上取得了最佳性能,优于 Llama 405B、DeepSeek-V3 等 baseline 模型。

尤其在 MMLU、TriviaQA、GSM8K 等具有挑战性的数据集上,盘古 Ultra 展现出了卓越的语言理解和推理能力。

英伟达含量为零:华为密集模型盘古 Ultra 性能比肩 DeepSeek-R1,纯昇腾集群训练

经过指令调优后,盘古 Ultra 的性能进一步提升,尤其在 AIME 2024、MATH-500 等数学推理任务和 LiveCodeBench 等编程竞赛题上达到了 SOTA 水平。

综合来看,盘古 Ultra 超越了包括 GPT-4o、Mistral-Large 2 等强大模型,与 DeepSeek-R1 等 MoE 模型竞争激烈

同时,盘古 Ultra 在 Arena Hard、MMLU-pro 等涵盖通用语言理解和推理的评测中也表现优异。

英伟达含量为零:华为密集模型盘古 Ultra 性能比肩 DeepSeek-R1,纯昇腾集群训练

那么,为了实现这样的效果,盘古 Ultra 采用了哪些关键技术呢?

“三明治”层归一化架构

如前文所述,盘古 Ultra 是一款 135B 参数量的密集模型,使用了 94 层的网络结构。

盘古 Ultra 采用了分组查询注意力(GQA)机制,包含 96 个查询头(query head)和 8 个键值头(key-value head)。

为了解决训练超深网络面临的不稳定性和收敛困难等问题,盘古 Ultra 在模型架构上做出了两个关键改进 —— 深度缩放的 Sandwich-Norm 层归一化和 TinyInit 参数初始化策略

传统的 Transformer 通常使用 Pre-LN 层归一化,但在深度模型中,Pre-LN 容易导致每个子层输出尺度的波动,引发训练不稳定。

盘古 Ultra 使用的 Sandwich-Norm 层归一化,则是在残差连接前对每个子层的输出做归一化,并根据网络深度对初始化值进行缩放,从而有效消除了训练过程中的 loss 尖峰,使训练过程更加平稳。

用更容易理解的话说,传统方法仅在每个子层的输入进行归一化,但这种方法针对输出也进行了归一化,形成了 Pre-Norm + 子层 + Post-Norm 的“三明治”结构。

英伟达含量为零:华为密集模型盘古 Ultra 性能比肩 DeepSeek-R1,纯昇腾集群训练

但是,仅仅使用 Sandwich-Norm 还不足以完全消除深度模型训练中的不稳定性 —— 随着网络层数的增加,每一层的输出尺度仍然可能出现累积性的漂移。

为此,盘古 Ultra 在 Sandwich-Norm 的基础上,进一步引入了深度缩放机制,对 Post-Norm 中的放缩参数 γ 进行了深度相关的初始化。

英伟达含量为零:华为密集模型盘古 Ultra 性能比肩 DeepSeek-R1,纯昇腾集群训练

至于整个模型的初始化,传统的初始化通常采用的 Xavier 初始化方法仅考虑模型宽度,而盘古 Ultra 采用的 TinyInit 同时依据模型深度和宽度来缩放初始化权重的标准差。

这种初始化方式有助于在前向传播和反向传播过程中,维持各层梯度的方差在一个合理的范围内,避免了梯度消失或爆炸问题,使得训练过程更加稳定,同时也加速了收敛。

实验表明,TinyInit 在深度模型训练中取得了更好的收敛速度和下游任务性能;同时针对 embedding 层,保持权重的标准差接近 1 也能提升训练稳定性。

另外,盘古团队也针对 Tokenizer 进行了优化,通过在通用中英文、代码、数学等不同领域分别进行词频统计,再合并去重,最终得到了一个兼顾领域覆盖和编码效率的 153376 个 token 的平衡词表。

英伟达含量为零:华为密集模型盘古 Ultra 性能比肩 DeepSeek-R1,纯昇腾集群训练

8192 张昇腾 NPU 训练集群

盘古 Ultra 的整个训练流程主要分为三个阶段 —— 预训练、长上下文扩展和指令调优。

其中预训练又可以分为三个子阶段:

  • 通用阶段:侧重建立语言理解和知识储备,使用了大量中英文通用语料,覆盖网页、书籍、百科等多个来源;

  • 推理阶段:引入更多高质量的数学和代码数据,以增强模型的推理能力。同时还使用 instruction 数据来帮助模型学习执行任务;

  • 退火阶段:帮助模型巩固知识和推理能力,并强化指令遵循能力。大量使用问答对和人类反馈数据。

研究者们采用了基于规则和模型的数据清洗方法,并设计了 curriculum learning 策略,让模型循序渐进地学习不同难度的样本。

预训练中使用了 AdamW 优化器,并动态调整超参数。

英伟达含量为零:华为密集模型盘古 Ultra 性能比肩 DeepSeek-R1,纯昇腾集群训练

预训练后,模型在最长 128K 的长上下文数据上进一步训练,通过扩大 RoPE 的基频来实现长序列建模,以增强处理长文档的能力。

最后的指令调优阶则段使用监督微调(SFT)和强化学习(RL)来使模型更好地适应下游任务,学会执行指令并与人类偏好对齐。

训练设施方面,盘古 Ultra 使用了一个由 8192 个昇腾 AI 处理器组成的大规模计算集群。

集群中每个节点包含 8 个 NPU,通过华为高速缓存一致性互联 HCCS 以全互联的拓扑结构连接,每个 NPU 配备 64GB 内存,节点间则通过 200Gbps 的 RoCE(RDMA over Converged Ethernet)网络互联。

为了实现盘古 Ultra 的高效训练,研究团队还采用了一套系统的并行策略和优化技术。

在并行策略的选择上,盘古 Ultra 综合考虑了模型的规模、数据的特性以及硬件的拓扑,最终采用了数据并行、张量并行、序列并行和流水线并行等多种并行方式的组合:

  • 128 路数据并行,将训练数据分片到不同设备,保证了数据吞吐;

  • 8 路张量并行,利用设备内部高带宽切分层内张量,实现高效通信;

  • 序列并行用于处理超长序列以降低显存压力;

  • 8 段流水线并行,将不同层分布到不同设备,形成高效的计算流水线。

英伟达含量为零:华为密集模型盘古 Ultra 性能比肩 DeepSeek-R1,纯昇腾集群训练

在并行策略的基础上,盘古 Ultra 还从多个角度对训练系统进行了深度优化。

一方面,通过使用 ZeRO(Zero Redundancy Optimizer)分布式优化器,将模型状态分片到不同设备,大幅降低了单个设备的内存占用,在提高数据并行度的同时,确保了每个设备的内存负担在可接受范围内。

另一方面,研究者们通过各种通信和计算优化技术,最小化了通信开销,提升了计算效率:

  • 通过算子融合(Kernel Fusion)将多个小算子合并,减少了内存访问和 kernel 启动;

  • 通过通信计算重叠(Communication-Computation Overlapping)实现通信和计算的深度交织,隐藏通信延迟;

  • MC^2(Merged Computation & Communication)和 BOA(Batch Optimization Accelerator)分别对张量并行和规范化层的通信进行了专门优化……

英伟达含量为零:华为密集模型盘古 Ultra 性能比肩 DeepSeek-R1,纯昇腾集群训练

在算法、工程、数据各个层面的精细优化下,盘古 Ultra 实现了 52% 以上的算力利用率。

技术报告:

https://github.com/pangu-tech/pangu-ultra/blob/main/pangu-ultra-report.pdf

本文来自微信公众号:量子位(ID:QbitAI),作者:克雷西,原标题《英伟达含量为零!华为密集模型性能比肩 DeepSeek-R1,纯昇腾集群训练》

相关资讯

调查:超72% 的企业选择 AI 工具时最看重易用性

根据最近的一项 CIO 报告,企业在人工智能(AI)领域的投资高达2.5亿美元,尽管在证明投资回报率(ROI)方面面临挑战。 商业领袖们正努力提高生产力,但新技术的集成往往需要重构现有应用、更新流程并激励员工学习,以适应现代商业环境。 QuickBlox 首席执行官 Nate MacLeitch 对136位高管进行了调查,以揭示 AI 采用的现实情况,探讨领导者的首要任务、主要担忧以及他们在2025年寻找可信工具的信息来源。
3/18/2025 10:02:00 AM
AI在线

降低门槛,全平台应用,昇腾还会手把手地教你如何用AI

机器之心报道作者:泽南如何才能做到 AI 应用一次开发,全场景部署?昇腾给出了答案。如今的大多数 AI 应用程序都需要跑在多种类型的处理器上,覆盖数十个版本的操作系统,运行在从端侧到云计算集群的各种设备上。这样复杂的环境,对软件的适应性和模型的可裁剪、可伸缩性提出了极高要求。AI 开源框架也在顺应这股潮流,昇腾发布的 CANN、MindSpore、MindX 等工具,可以让开发者实现「统一端边云,全端自动部署」,开启了机器学习开发的新时代,一直被人们寄予厚望。昇腾的 AI 全栈软件平台。其中,基础架构作为连接硬件与
3/19/2021 11:23:00 AM
机器之心

院士、委员、专家共议“双智建设”:场景驱动、标准协同、以人为本

智能网联汽车和智慧城市基础设施,已经成为日常生活中随处可见的元素。2021年,住建部和工信部将16个城市列为双智试点城市,探索智慧城市基础设施与智能网联汽车协同发展。试点城市提供了哪些思路?双智的未来该走向何处?这些问题成为当前双智行业关注的重点。近日,由腾讯智慧交通、腾讯研究院联合举办了“双智建设专家研讨会“,共同探讨双智建设的新思路、新机遇。中国工程院院士郭仁忠、全国政协委员、交通运输部科学研究院副院长兼总工程师王先进、中国电动汽车百人会秘书长兼首席专家张永伟、中国信息通信研究院副院长王志勤、中国城市规划设计研
3/15/2022 4:10:00 PM
新闻助手