AI在线 AI在线

摩尔线程

摩尔线程重磅开源两大AI框架,国产GPU训练效率突破90%

深度计算领域再添利器!摩尔线程今日重磅宣布,正式开源MT-MegatronLM与MT-TransformerEngine两大AI框架,这一举措将为国产计算基础设施注入强劲动力。 这两大框架通过深度融合FP8混合训练策略和高性能算子库,成功在国产全功能GPU上实现混合并行训练和推理,大幅提升了大模型训练的效率与稳定性。 摩尔线程此次开源的MT-MegatronLM框架专为全功能GPU打造,支持dense模型、多模态模型及MoE(混合专家)模型的高效训练,满足了当前AI领域多样化的训练需求。
3/18/2025 10:46:00 AM
AI在线

摩尔线程开源 MT-MegatronLM 和 MT-TransformerEngine 两大 AI 框架

摩尔线程官方今日发文宣布,近日已正式开源 MT-MegatronLM 与 MT-TransformerEngine 两大 AI 框架。这两大框架通过深度融合 FP8 混合训练策略和高性能算子库,在国产全功能 GPU 上实现高效的混合并行训练和推理,提升了训练效率与稳定性。
3/17/2025 6:28:02 PM
归泷(实习)

Day0 级支持,摩尔线程官宣支持通义千问 QwQ-32B 开源模型

3 月 6 日,阿里云团队正式开源全新推理模型 —— 通义千问 QwQ-32B。摩尔线程智能科技(北京)股份有限公司今日宣布在该模型发布后 2 小时内,完成对其支持。
3/6/2025 8:08:26 PM
归泷(实习)

摩尔线程支持 DeepSeek 开源周“全家桶”

摩尔线程宣布全面支持DeepSeek开源周的五大项目,包括FlashMLA、DeepEP、DeepGEMM、DualPipe和Fire-Flyer 文件系统(3FS)。#摩尔线程##DeepSeek开源周##DeepSeek#
3/2/2025 9:12:24 AM
归泷(实习)

摩尔线程成功支持 DeepSeek 开源通信库 DeepEP 和并行算法 DualPipe

在 DeepSeek 开源周第四日,摩尔线程宣布已成功支持 DeepSeek 开源通信库 DeepEP 和并行算法 DualPipe,并发布相关开源代码仓库:MT-DeepEP 和 MT-DualPipe。
2/27/2025 11:39:00 PM
归泷(实习)

国产 GPU 助力,摩尔线程实现对 DeepSeek 蒸馏模型推理服务部署

DeepSeek 开源模型(如 V3、R1 系列)在多语言理解与复杂推理任务中展现了卓越性能。摩尔线程智能科技(北京)有限责任公司今日发文宣布,摩尔线程实现了对 DeepSeek 蒸馏模型推理服务部署。
2/4/2025 11:38:52 AM
归泷(实习)

AI主战场,万卡是标配:国产GPU万卡万P集群来了!

Scaling Law 持续见效,让算力就快跟不上大模型的膨胀速度了。「规模越大、算力越高、效果越好」成为行业圭皋。主流大模型从百亿跨越到 1.8 万亿参数只用了1年,META、Google、微软这些巨头也从 2022 年起就在搭建 15000 卡以上的超大集群。「万卡已然成为 AI 主战场的标配。」然而在国内,全国产化的 GPU 万卡集群,则是屈指可数。有超大规模,同时还具备超强通用性的万卡集群,更是行业空白。当国产 GPU 万卡万 P 集群首次亮相时,自然就引发了行业广泛关注。7 月 3 日,摩尔线程在上海重磅
7/4/2024 6:24:00 PM
机器之心
  • 1