DeepSeek 频道:探索人工智能前沿,洞见未来科技 - AI在线

欢迎访问我们的 DeepSeek 频道页面,这里汇聚了关于 DeepSeek 技术、应用和最新动态的专业文章。DeepSeek 是一种先进的大语言模型,基于深度学习技术,通过强大的自然语言处理能力,提供精准的语义理解和智能搜索功能。无论您是对大语言模型的基础原理感兴趣,还是希望了解其在各行各业中的应用,我们的文章将为您提供全面的解读。

斯坦福最新 AI 研究报告出炉:中美模型质量差距缩小至 0.3%

斯坦福最新报告显示,中美顶级AI模型性能差距已缩小至0.3%,中国在AI领域快速崛起。2024年是小型AI模型的突破年,更小更高效的模型表现亮眼。#人工智能##AI前沿#

Deepseek 突破 AI 训练烧钱魔咒:1.2 万美元 1/525 成本 MT-Bench 跑分媲美 GPT-4o

深度求索(DeepSeek)联合清华大学,合作推出全新 AI 对齐技术 SPCT(自我原则点评调优),突破传统依赖海量训练数据的模式,通过推理阶段动态优化输出质量。

论文读得慢,可能是工具的锅,一手实测科研专用版「DeepSeek」

「未来,99% 的 attention 将是大模型 attention,而不是人类 attention。 」这是 AI 大牛 Andrej Karpathy 前段时间的一个预言。 这里的「attention」可以理解为对内容的需求、处理和分析。

中美 AI 挑战东京大学入学考试:双双合格,英语优异,数学欠佳

大学入学共通考试和二次考试合计的理科得分(满分 550 分)中,o1 获得了 374 分,R1 获得了 369 分,两者均超过了东大在 3 月 10 日公布的理科 3 类合格最低分数线(368.7 分)。

DeepSeek R2来了?全新推理时Scaling论文联手清华震撼发布! 新智元 新智元 2025年04月04日 17:33

DeepSeek R2,果然近了。 最近,DeepSeek和清华的研究者发表的这篇论文,探讨了奖励模型的推理时Scaling方法。 论文地址:,强化学习(RL)已广泛应用于LLM的大规模后训练阶段。

DeepSeek R1 vs OpenAI O3 vs Gemini 2 Pro—谁最适合做客服主管的AI

Deepseek在2025年1月颠覆了全球人工智能模型,但谷歌和OpenAI很快发布了Gemini2 Pro和O3。 这就产生了一个问题,应该使用哪种人工智能模型来进行客户服务? 为了评估这些模型在客户服务任务上的表现,我们必须更深入地了解它们在各种AI基准上的表现。

DeepSeek R2来了?全新推理时Scaling论文联手清华震撼发布!

DeepSeek R2,果然近了。 最近,DeepSeek和清华的研究者发表的这篇论文,探讨了奖励模型的推理时Scaling方法。 图片论文地址:,强化学习(RL)已广泛应用于LLM的大规模后训练阶段。

基于 DeepSeek GRPO 的 1.5B Rust 代码生成模型训练实战

群组相对策略优化(Group Relative Policy Optimization,GRPO)已被证明是一种有效的算法,可用于训练大语言模型(LLMs),使其具备推理能力并在基准测试中持续提升性能表现。 DeepSeek-R1 展示了如何通过监督式微调(Supervised Fine-Tuning)与 GRPO 技术的结合,引导模型达到与 OpenAI 的 o1 等顶尖模型相竞争的水平。 为了进一步探索其实践应用,我们尝试将这些技术应用于现实场景中。

DeepSeek再好,还得先进行数据清洗!

数据分析师的日常,有大半时间都在和数据"搏斗"。 每当接到一份数据,第一反应往往是叹气: "这数据质量...又得清洗半天。 " 数据清洗就像是数据分析的"地基工程",地基不牢,上层再漂亮也会坍塌。

刚刚,DeepSeek公布推理时Scaling新论文,R2要来了?

这会是 DeepSeek R2 的雏形吗? 本周五,DeepSeek 提交到 arXiv 上的最新论文正在 AI 社区逐渐升温。 当前,强化学习(RL)已广泛应用于大语言模型(LLM)的后期训练。

仅需10万不到,DeepSeek R1 671B大模型本地部署实战指南

最近帮一个朋友部署本地的671b版本的deepseek r1,需求是要完全本地部署,但是又不想花太高的成本,没有并发要求,我一想,用ktransformers框架来部署完全合适。 关于机器配置,在挑挑拣拣评比之后,设备选择如下,最终选择的是其中的服务器配置。 这套设备下来总成本不到10万,相比如动辄几百万的满血版deepseek R1或者花个五六十万买个deepseek 70b的一体机要值当的多,且不说70b并不是真正的deepseek r1,效果还不如32b的QWQ,就光说一体机的升级也是个麻烦事,买了机器基本就和模型绑定了,以后新模型出来后想升级就难了。

机器学习|从0开发大模型之复现DeepSeek的aha moment

前面一篇文章介绍了《从0开发大模型之DeepSeek的GRPO》,并且实现了一个简单版本的 GRPO 代码,不过从工程领域来看,并没有复现DeepSeek-R1,于是最近申请了48G的显存,结合一些开源的方案复现aha monent,并给出完整的代码和工具链。  1、什么是 aha monent DeepSeek-R1 论文中提到,模型让作者「见证了强化学习的力量和美感」,在DeepSeek-R1-Zero的中间版本,「顿悟时刻」来了:模型学会了以人类的语气进行反思。 aha monent 2、使用什么的基座模型和训练数据 由于显卡只有48G,可以用基座模型Qwen2.5,模型大小:0.5B,1.5B,3B训练数据有很多:(可以直接在huggingface上找到)    a.AI-MO/NuminaMath-TIR:包括72K行的数学问题,解决方案和答案,是从 NuminaMath-CoT 数据集提炼出来的   b.

机器学习|从0开发大模型之DeepSeek的GRPO

DeepSeek-R1的发布为国产大模型争光了(太强了),不过 GRPO 算法源自 DeepSeekMath 7B 模型,该模型在 MATH 基准测试中取得了优异成绩,论文发表于2024年2月份:,以下是该论文的摘要原文:复制翻译如下:复制对比数据1、什么是GRPOGRPO 是一种在线学习算法,核心思想是通过组内相对奖励来估计基线,从而避免使用额外的价值函数模型。 通过在训练期间使用受训模型自身生成的数据来迭代改进,GRPO 旨在最大化生成补全的优势,同时确保模型保持接近参考策略,下图是论文中的算法流程图:GRPOGRPO 是 PPO (Proximal Policy Optimization,近端策略优化,是一种强化学习算法,由OpenAI于2017年提出,旨在解决策略梯度方法中的训练不稳定问题) 的变体,主要区别是:GRPO 省略 value function modelGRPO 奖励计算,改成了一个 q 生成多个 r,然后 reward 打分GRPO算法流程:采样一组输出并计算每个输出的奖励对组内奖励进行归一化处理使用归一化后的奖励计算优势函数通过最大化目标函数更新策略模型迭代训练,逐步优化策略模型论文中的伪代码2、奖励设计huggingface 库提供 GRPOTrainer 可以直接使用 GRPO 训练,参数包括定义奖励模型和函数。 2.1 奖励模型复制这里的 reward_funcs 参数可以传入奖励模型。

深度解析:通过 AIBrix 多节点部署 DeepSeek-R1 671B 模型

原文链接: AIBrix 分布式推理平台实现 DeepSeek-R1 671B 的多节点部署。 DeepSeek-R1 通过渐进式训练框架展现出优秀的逻辑推理能力 —— 在 6710 亿总参数量中,其动态激活的 370 亿参数与 128k 上下文窗口,使其在复杂任务处理中表现卓越。 然而,如此庞大的模型规模对部署环境提出了严苛挑战,尤其是分布式推理的资源调度与性能优化。

美国奥数题撕碎AI数学神话,顶级模型现场翻车!最高得分5%,DeepSeek唯一逆袭

3月26号,ETH等团队的一项研究一经发布,就引起了圈内热议。 这项研究彻底撕开遮羞布,直接击碎了「LLM会做数学题」这个神话! 论文地址:,MathArena团队使用最近的2025年美国数学奥林匹克竞赛进行了详细评估,结果令人大吃一惊——所有大模型的得分,都低于5%!

DeepSeek再度升级,厉害了!

当代的程序员,避免不了各种AI工具打交道,可以说,这些AI工具早已成为我们生活和工作的一部分。 从之前的ChatGpt,到今年年初开源的DeepSeek爆火,国产新锐 DeepSeek 犹如一匹黑马,将中国的 AI 技术从“追赶者”转变为“引领者”。 现在各个大厂也都纷纷部署了DeepSeek,我也把重心从国外的产品转向了国内 AI。

基于DeepSeek + VSCode 实现AI辅助编程

随着人工智能技术的飞速发展,AI 辅助编程逐渐成为提升开发效率、优化代码质量的重要工具。 本文通过结合 DeepSeek 的强大语言模型和 VSCode 的高效开发环境,展示了如何利用 AI 辅助编程完成一个经典的 MapReduce 词频统计任务。 这一实践不仅展示了 AI 在编程中的应用潜力,还为开发者提供了一个高效、便捷的开发流程示例,帮助读者快速上手 AI 辅助编程,并探索其在实际项目中的应用价值。