烽火通信旗下长江计算 G440K V2 服务器实现 DeepSeek 系列模型推理适配和优化

烽火通信旗下长江计算近日联合昇腾、华为云团队成功助力某国有大行完成 DeepSeek-V3 大模型的本地化推理服务部署。本次部署使用长江计算 G440K V2 服务器,基于 MindIE 推理引擎,在华为云 AI 开发平台 ModelArts 上完成。
感谢烽火通信科技股份有限公司今日发文宣布,旗下长江计算近日联合昇腾、华为云团队成功助力某国有大行完成 DeepSeek-V3 大模型的本地化推理服务部署

本次部署使用长江计算 G440K V2 服务器,基于 MindIE 推理引擎,在华为云 AI 开发平台 ModelArts 上完成。

图片

据介绍,G440K V2 服务器由长江计算自主研发,已实现 DeepSeek 系列模型的推理适配和优化,其采用 8 模组高效推理方式,可提供 AI 推理能力,满足 DeepSeek 大模型算力需求。

AI在线从烽火通信获悉,该服务器宣称在内存带宽和互联能力方面具有优势,在 DeepSeek 系列模型部署中,可提高模型推理速度、响应效率和数据处理能力,满足多机组网推理的需求。当前已应用于智能客服、文案生成、知识沉淀等大模型推理场景中,同时确保部署应用中的数据安全与自主可控。

相关资讯

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与

Deepseek AI 模型升级推出 2.5 版:合并 Coder 和 Chat,对齐人类偏好、优化写作任务和指令跟随等

DeepSeek Coder V2 和 DeepSeek V2 Chat 两个模型已经合并升级,升级后的新模型为 DeepSeek V2.5。图源:Linux.do 论坛网友截图DeepSeek 官方昨日(9 月 5 日)更新 API 支持文档,宣布合并 DeepSeek Coder V2 和 DeepSeek V2 Chat 两个模型,升级推出全新的 DeepSeek V2.5 新模型。官方表示为向前兼容,API 用户通过 deepseek-coder 或 deepseek-chat 均可以访问新的模型。新模型在

被误解的「中文版Sora」背后,字节跳动有哪些技术?

2024 开年,OpenAI 就在生成式 AI 领域扔下了重磅炸弹:Sora。这几年,视频生成领域的技术迭代持续加速,很多科技公司也公布了相关技术进展和落地成果。在此之前,Pika、Runway 都曾推出过类似产品,但 Sora 放出的 Demo,显然以一己之力抬高了视频生成领域的标准。在今后的这场竞争中,哪家公司将率先打造出超越 Sora 的产品,仍是未知数。国内这边,目光聚集于一众科技大厂。此前有消息称,字节跳动在 Sora 发布之前就研发出了一款名为 Boximator 的视频生成模型。Boximator 提