DeepSeek 频道:探索人工智能前沿,洞见未来科技 - AI在线

欢迎访问我们的 DeepSeek 频道页面,这里汇聚了关于 DeepSeek 技术、应用和最新动态的专业文章。DeepSeek 是一种先进的大语言模型,基于深度学习技术,通过强大的自然语言处理能力,提供精准的语义理解和智能搜索功能。无论您是对大语言模型的基础原理感兴趣,还是希望了解其在各行各业中的应用,我们的文章将为您提供全面的解读。

全网都在扒的DeepSeek团队,是清北应届生撑起一片天

DeepSeek-v3大模型横空出世,以1/11算力训练出超过Llama 3的开源模型,震撼了整个AI圈。 紧接着,“雷军开千万年薪挖DeepSeek研究员罗福莉”的传闻,也使得人们把目光聚焦向DeepSeek的人才。 这下不只科技圈,全网都在好奇,连小红书上都有人发帖询问,这究竟是一只怎样的团队?

从DeepSeek-V3发布谈大模型的技术突破与未来机遇

在AI技术日新月异的今天,大型语言模型已成为推动AI发展的重要力量。 2024年12月26日,DeepSeek AI正式发布了其最新的大型语言模型——DeepSeek-V3。 这款开源模型采用了高达6710亿参数的混合专家(MoE)架构,每秒能够处理60个token,比V2快了3倍。

DeepSeek的V3,爆火了

编辑 | 言征出品 | 51CTO技术栈(微信号:blog51cto)上周四,12月26日那个晚上非常不平凡,一件大事注定要被AI界写进里程碑。 一夜之间,全球开源界最强模型不再是Llama了,而是中国开源界的新星DeepSeek最新研发的前言模型V3,甚至可以比肩世界顶尖的闭源模型。 根据DeeSeek披露的基准测试分数,简单来讲,八个字:开源最强,闭源比肩。

大模型 DeepSeek:未授权任何人员参与机构投资者交流会,网传交流信息不实

据财联社报道,近期,一份关于 DeepSeek 发布历程、优化方向的专家会议纪要文件在业内流传。对此,DeepSeek 回应称,公司未授权任何人员参与券商投资者交流会,所谓“DeepSeek 专家”非公司人员,所交流信息不实。

国产大模型 DeepSeek-V3 开源:6710 亿参数自研 MoE,性能和 GPT-4o 不分伯仲

“深度求索”官方公众号昨日(12 月 26 日)发布博文,宣布上线并同步开源 DeepSeek-V3 模型,用户可以登录官网 chat.deepseek.com,与最新版 V3 模型对话。

雷军在线挖人,传年薪千万级!DeepSeek 关键骨干罗福莉已离职加入小米,或领军小米大模型团队;小米将在大模型上奋起直追!

编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)AI圈的大新闻,雷总在线挖人,小米要发力大模型了! 知情人士称,雷军认为小米在大模型领域发力太晚,于是亲自挖人,重金招募能够领军小米大模型的人才,支付的薪酬水平在千万元级别。 而且雷总已经初战告捷——帮小米赢得了DeepSeek的关键骨干罗福莉。

消息称雷军重金招募大模型领军人才,DeepSeek 罗福莉将加入小米

知情人士称,雷军认为小米在大模型领域发力太晚,于是亲自挖人,重金招募能够领军小米大模型的人才,支付的薪酬水平在千万元级别。(第一财经新皮层)

DeepSeek-VL2 AI 视觉模型开源:支持动态分辨率、处理科研图表、解析各种梗图等

DeepSeek 官方公众号昨日(12 月 13 日)发布博文,宣布开源 DeepSeek-VL2 模型,在各项评测指标上均取得了极具优势的成绩,官方称其视觉模型正式迈入混合专家模型(Mixture of Experts,简称 MoE)时代。

DeepSeek V2 系列 AI 模型收官,联网搜索上线

DeepSeek 官方公众号昨日(12 月 10 日)发布博文,宣布 DeepSeek V2 系列收官,推出 DeepSeek V2.5 的最终版微调模型 DeepSeek-V2.5-1210,主要支持联网搜索功能,全面提升各项能力。

DeepSeek首发国产类o1模型!人人可以免费使用!

20日晚8点,DeepSeek在自己官方公众号上放出了一个大杀器:全新自研的DeepSeek-R1-Lite 预览版正式上线。 据介绍,DeepSeek R1 系列模型使用强化学习训练,推理过程包含大量反思和验证,思维链长度可达数万字。 该系列模型在数学、代码以及各种复杂逻辑推理任务上,取得了媲美 o1-preview 的推理效果,并为用户展现了 o1 没有公开的完整思考过程。

推理性能直逼o1,DeepSeek再次出手,重点:即将开源

DeepSeek 又出手了,这次又是重磅炸弹。 昨晚,DeepSeek 上线了全新的推理模型 DeepSeek-R1-Lite-Preview ,直接冲击 OpenAI o1 保持了两个多月的大模型霸主地位。 在美国数学竞赛(AMC)中难度等级最高的 AIME 以及全球顶级编程竞赛(codeforces)等权威评测中,DeepSeek-R1-Lite-Preview 模型已经大幅超越了 GPT-4o 等顶尖模型,有三项成绩还领先于 OpenAI o1-preview。

推理模型 DeepSeek-R1-Lite 预览版上线,号称媲美 OpenAI o1-preview

官方表示,该系列模型在数学、代码以及各种复杂逻辑推理任务上,取得了媲美 o1-preview 的推理效果,并为用户展现了 o1 没有公开的完整思考过程。

用60%成本干80%的事,DeepSeek分享沉淀多年的高性能深度学习架构

硬件发展速度跟不上 AI 需求,就需要精妙的架构和算法。根据摩尔定律,计算机的速度平均每两年就会翻一倍,但深度学习的发展速度还要更快,如图 1 和 2 所示。可以看到,AI 对算力的需求每年都以 10 倍幅度增长,而硬件速度每两年增长 3 倍、DRAM 带宽增长 1.6 倍、互连带宽则仅有 1.4 倍。而大模型是大数据 大计算的产物,其参数量可达千亿乃至万亿规模,需要成千上万台 GPU 才能有效完成训练。这些实际情况提升了人们对高性能计算(HPC)的需求。为了获得更多计算资源,人们不得不扩展更多计算节点。这就导

Deepseek AI 模型升级推出 2.5 版:合并 Coder 和 Chat,对齐人类偏好、优化写作任务和指令跟随等

DeepSeek Coder V2 和 DeepSeek V2 Chat 两个模型已经合并升级,升级后的新模型为 DeepSeek V2.5。图源:Linux.do 论坛网友截图DeepSeek 官方昨日(9 月 5 日)更新 API 支持文档,宣布合并 DeepSeek Coder V2 和 DeepSeek V2 Chat 两个模型,升级推出全新的 DeepSeek V2.5 新模型。官方表示为向前兼容,API 用户通过 deepseek-coder 或 deepseek-chat 均可以访问新的模型。新模型在

DeepSeek开源数学大模型,高中、大学定理证明新SOTA

DeepSeek-Prover-V1.5 通过结合强化学习和蒙特卡洛树搜索,显著提升了证明生成的效率和准确性。AI 技术与数学发现的进展,正前所未有地交织在一起。前段时间,著名数学家陶哲轩在牛津数学公开讲座中做了主题为「AI 在科学和数学中的潜力」的主题分享。他指出,将 AI 整合到数学领域将使形式化证明的编写速度超过人类证明(人类证明容易出错)。这将成为一个关键转折点,意味着形式化证明的使用将不仅限于验证现有的证明,还将用于创造新的数学知识。这将通过广泛的人类数学家与 AI 数学家之间的协作来实现。我们将迎来一个