Gitee AI 联合沐曦首发全套 DeepSeek R1 千问蒸馏模型,全免费体验

Gitee AI 昨日宣布上线 DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Qwen-32B 四个较小尺寸的 DeepSeek 模型。
感谢Gitee AI 昨日宣布上线 DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Qwen-32B 四个较小尺寸的 DeepSeek 模型。更值得关注的是,本次上线的四个模型均部署在国产沐曦曦云 GPU 上

图片

与全尺寸 DeepSeek 模型相比,较小尺寸的 DeepSeek 蒸馏版本模型更适合企业内部实施部署,可以降低落地成本

同时,这次 Deepseek R1 模型 + 沐曦曦云 GPU + Gitee AI 平台,更是实现了从芯片到平台,从算力到模型全国产研发

AI在线注:DeepSeek R1 是一款大型混合专家(MoE)模型,拥有 6710 亿个参数,支持 128000 个 Token 的大输入上下文长度。

本次部署在沐曦曦云 GPU 上的是四个 DeepSeek R1 蒸馏模型,号称以更小参数量的资源占用,实现了性能与大参数模型“旗鼓相当”。

图片

目前 Gitee AI 上的 DeepSeek-R1-Distill 系列模型现已面向全体开发者免费使用

相关资讯

OpenAI首席研究官:DeepSeek独立发现了o1的一些核心思路,奥特曼、LeCun纷纷置评

成本打下来了,需求更多才对? 春节这几天,国内外 AI 圈都被 DeepSeek 刷了屏。 英伟达的股市震荡更是让全世界看得目瞪口呆(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。

一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo

开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址::DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language ModelDeepSeek-V2 参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。与

DeepSeek开源数学大模型,高中、大学定理证明新SOTA

DeepSeek-Prover-V1.5 通过结合强化学习和蒙特卡洛树搜索,显著提升了证明生成的效率和准确性。AI 技术与数学发现的进展,正前所未有地交织在一起。前段时间,著名数学家陶哲轩在牛津数学公开讲座中做了主题为「AI 在科学和数学中的潜力」的主题分享。他指出,将 AI 整合到数学领域将使形式化证明的编写速度超过人类证明(人类证明容易出错)。这将成为一个关键转折点,意味着形式化证明的使用将不仅限于验证现有的证明,还将用于创造新的数学知识。这将通过广泛的人类数学家与 AI 数学家之间的协作来实现。我们将迎来一个