DeepSeek 进入“国家队”,超算互联网上线 R1 / V3 / Coder 等系列模型

国家超算互联网平台已正式上线DeepSeek-R1模型的1.5B、7B、8B、14B版本,并将于近期陆续更新32B、70B等版本。

据“超算互联网”公众号,DeepSeek-R1、V3、Coder 等系列模型,已陆续上线国家超算互联网平台。国家超算互联网平台已正式上线 DeepSeek-R1 模型的 1.5B、7B、8B、14B 版本,并将于近期陆续更新 32B、70B 等版本。AI在线附链接:商品页面 体验页面

DeepSeek 进入“国家队”,超算互联网上线 R1 / V3 / Coder 等系列模型

DeepSeek-R1 小版本模型提供一键推理服务,无需下载本地;还可根据私有化需求,引入专有数据,对模型进行定制化训练和开发。国家超算互联网平台还上线了 DeepSeek-V3、DeepSeek-v2.5 系列、DeepSeek-coder 系列、DeepSeek-math 系列(7b)和 DeepSeek-v2 系列(Lite)等模型。

去年 4 月,国家超算互联网平台正式上线,提供超过 3200 款商品,覆盖科学计算、工业仿真、AI 模型训练等各个领域。超算互联网是以互联网的思维运营超算中心,并连接产业生态中的算力供给、应用开发、运营服务、用户等各方能力和资源,构建一体化超算算力网络和服务平台。

据科技部介绍,超算互联网重要目标是紧密连接供需双方,通过市场化的运营和服务体系,实现算力资源统筹调度,降低超算应用门槛,并带动计算技术向更高水平发展,推动自主核心软硬件技术深度应用,辐射带动自主可控产业生态的发展与成熟。

相关资讯

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

自有歪果仁为DeepSeek「辩经」:揭穿围绕DeepSeek的谣言

围绕 DeepSeek 的谣言实在太多了。 面对 DeepSeek R1 这个似乎「一夜之间」出现的先进大模型,全世界已经陷入了没日没夜的大讨论。 从它的模型能力是否真的先进,到是不是真的只用了 550W 进行训练,再到神秘的研究团队,每个角度都是话题。

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与