国家队下场!DeepSeek全系模型登陆国家超算平台

近日,深度求索(DeepSeek)旗下DeepSeek-R1、V3、Coder等全系列大模型正式接入国家超算互联网平台(www.scnet.cn),在国产超智融合算力及全国一体化算力服务体系的支撑下,中国AI大模型产业迈出关键一步。 国家超算互联网平台目前已上线DeepSeek-R1模型的1.5B、7B、8B、14B版本,用户可通过扫码或网页端直接体验在线推理服务,无需本地部署。 针对企业级需求,平台支持引入专有数据进行私有化模型定制开发,32B、70B等大参数版本也将于近期陆续开放。

近日,深度求索(DeepSeek)旗下DeepSeek-R1、V3、Coder等全系列大模型正式接入国家超算互联网平台(www.scnet.cn),在国产超智融合算力及全国一体化算力服务体系的支撑下,中国AI大模型产业迈出关键一步。

国家超算互联网平台目前已上线DeepSeek-R1模型的1.5B、7B、8B、14B版本,用户可通过扫码或网页端直接体验在线推理服务,无需本地部署。针对企业级需求,平台支持引入专有数据进行私有化模型定制开发,32B、70B等大参数版本也将于近期陆续开放。同步上线的还包括DeepSeek-V3、Coder系列、Math系列(7B)等垂直领域模型,覆盖代码生成、数学推理等多样化场景。

QQ20250205-143146.png

相较于海外大模型,DeepSeek系列通过算法优化显著降低计算资源消耗,结合国家超算平台“普惠易用、丰富好用”的算力调度能力,实现调用成本的大幅压缩。以DeepSeek-R1-Distill-Qwen-7B为例,其WebUI对话界面支持零门槛体验,而企业用户仅需通过API接口即可快速接入生产环境,形成从模型调用到私有化部署的完整链路。

分析人士指出,DeepSeek模型在超算平台的规模化落地,或将改变国内AI行业依赖海外闭源模型的现状。随着更多开发者基于国产算力底座训练、优化本土化模型,中国有望在AI技术应用层实现批量“弯道超车”,而这场由“神秘东方力量”驱动的求索浪潮,正在为全球AI竞争注入全新变量。

相关资讯

深度求索:除官方账号外,其他任何以 DeepSeek 或相关负责人名义对外发布公司相关信息的均为仿冒账号

深度求索官方表示,除微信公众号、小红书、X(Twitter)官方账号外,其他任何以 DeepSeek 或相关负责人名义对外发布公司相关信息的,均为仿冒账号。

DeepSeek称遭到大规模恶意攻击,注册或受影响

DeepSeek发布公告称其线上服务近期遭受了大规模恶意攻击,导致注册过程可能变得繁忙。 DeepSeek提醒用户,如果遇到注册困难,可以稍等后重试。 已注册用户可以正常登录,不受影响。

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与