DeepSeek V3 和 R1 模型完成海光 DCU 国产化适配并正式上线

用户在“光合开发者社区”中的“光源”板块访问并下载相关模型,或登录光源官网搜索“DeepSeek”,即可基于 DCU 平台部署和使用相关模型。
感谢中科曙光国家先进计算产业创新中心有限公司昨日发文宣布,海光信息技术团队成功完成 DeepSeek V3 和 R1 模型与海光 DCU(深度计算单元)国产化适配,并正式上线。

用户在“光合开发者社区”中的“光源”板块访问并下载相关模型,或登录光源官网搜索“DeepSeek”,即可基于 DCU 平台部署和使用相关模型。

DeepSeek V3 和 R1 模型完成海光 DCU 国产化适配并正式上线

据介绍,DeepSeek V3 和 R1 模型基于 Transformer 架构,采用了 Multi-Head Latent Attention(MLA)和 DeepSeek MoE 两大核心技术。MLA 通过减少 KV 缓存显著降低了内存占用,提升了推理效率;DeepSeek MoE 则通过辅助损失(auxiliary loss)实现了专家负载的智能平衡,进一步优化了模型性能。

AI在线查询获悉,DCU 是海光信息推出的高性能 GPGPU 架构 AI 加速卡,致力于为行业客户提供自主可控的全精度通用 AI 加速计算解决方案。目前,DCU 已在科教、金融、医疗、政务、智算中心等多个领域实现规模化应用。

相关资讯

澎峰科技 + 海光 DCU:自研推理框架全面支持 DeepSeek 系列模型

澎峰科技在近日正式宣布,其自主研发的 PerfXLM + 推理框架已基于海光 DCU,完成对 DeepSeek 全系列模型的深度适配与优化。

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

自有歪果仁为DeepSeek「辩经」:揭穿围绕DeepSeek的谣言

围绕 DeepSeek 的谣言实在太多了。 面对 DeepSeek R1 这个似乎「一夜之间」出现的先进大模型,全世界已经陷入了没日没夜的大讨论。 从它的模型能力是否真的先进,到是不是真的只用了 550W 进行训练,再到神秘的研究团队,每个角度都是话题。