DeepSeek 频道:探索人工智能前沿,洞见未来科技 - AI在线
欢迎访问我们的 DeepSeek 频道页面,这里汇聚了关于 DeepSeek 技术、应用和最新动态的专业文章。DeepSeek 是一种先进的大语言模型,基于深度学习技术,通过强大的自然语言处理能力,提供精准的语义理解和智能搜索功能。无论您是对大语言模型的基础原理感兴趣,还是希望了解其在各行各业中的应用,我们的文章将为您提供全面的解读。
月之暗面推出新优化器Muon,计算效率大幅提升
近日,人工智能领域再度掀起波澜,月之暗面(Moonshot)宣布开源新版优化器 Muon,成功将计算效率提升至传统 AdamW 的两倍。 这个新优化器的推出恰逢 DeepSeek 即将连续开源多个代码库,引发了业内的高度关注和讨论。 Muon 优化器最初由 OpenAI 的研究者 Keller Jordan 等人在2024年提出,针对小规模模型训练时表现优异。
DeepSeek一夜把百度干回20年前,网友:还有这好事?
没完了,刚刚接入DeepSeek的百度,又双叒叕搞事情了。 最新消息,“百度一下 你就知道”这条2005年开始伴随着中国用户度过了互联网黄金岁月的Slogan,回归了。 有意思的是,这种“炒冷饭”的行为在大厂中已经出现了人传人的现象。
多行业拥抱DeepSeek,全不顾它身上的“刺”
在数字化浪潮席卷全球的今天,技术革命的脚步正以指数级速率重构人类社会发展轨迹。 而DeepSeek的出现,毫无疑问重塑了商业世界的运行法则——从产业上游的芯片制造到终端消费者的移动支付,从医疗影像的毫厘级诊断到教育资源的跨时空共享,算法与数据的交织已然突破想象力的边界。 当下,众多产业正在与人工智能产生"化学反应",这种由技术创新引发的链式反应,正在三百六十度解构既有行业秩序,催生出"生产力跃迁2.0"时代的全新商业生态。
梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍
2 月 18 日,马斯克发布 Grok 3 的热度还没过去,梁文锋就作为 co-authors 带着 DeepSeek 研究团队杀了回来。 公布新研究的推文发布不到 3 个小时,就带来了三十多万的浏览量,火爆程度不逊 OpenAI。 而这次 DeepSeek 团队最新的研究论文更是重磅,论文中介绍了一种全新的,可用于超快速的长上下文训练与推理的注意力机制 —— NSA,值得一提的是,NSA 还具有与硬件对齐的特点,十足的硬件友好。
腾讯健康接入DeepSeek+腾讯混元双模型 升级就医体验
2月24日,腾讯健康宣布通过腾讯云全面接入DeepSeek大模型,并与腾讯自研的混元大模型“双核组队”,全面升级医疗服务,涵盖智能导诊、预问诊、健康问答、智能用药、症状自查、影像报告解读及质控等多个场景。 这一升级旨在帮助全国超过1000家医院快速提升智能应用水平,并为医疗机构、体检中心、药械企业和基因测序企业提供多模型部署及应用方案。 此次升级围绕就医全流程展开,从诊前的健康问答、症状自查和智能导诊,到诊中的智能预问诊,再到诊后的报告解读和智能用药,腾讯健康正逐步将服务切换至“多模型”模式。
DeepSeek开源周“第一刀”砍向算力!重磅开源FlashMLA,挑战H800算力极限,网友直呼:极致的工程设计!
编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)上周五,DeepSeek刚刚预告了重磅开源周! 周一一早,DeepSeek就履行承诺,开源了针对 Hopper GPU 的高效 MLA 解码内核——FlashMLA! 图片根据DeepSeek介绍,FlashMLA内核针对变长序列进行了优化,是已投入生产的核心技术。
从理论到实践:学会如何商用 DeepSeek,收藏这一篇就够了
Hi,大家好,我叫秋水,当前专注于 AI Agent 和 AI 工作流自动化。 近期 DeepSeek,全球闻名,大家纷纷在讨论,我看过很多文章和视频,很多说的有点夸张,23 年 AI 刚来的那些内容,又重新说了一遍,只是把 AI 两个字母换成了 DeepSeek。 在我看来,DeepSeek 出圈的主要原因是能力强、价格低、开源、可以本地部署,这个好处在于企业在 AI 方面的应用会加速落地,我们国内的用户不需要那么麻烦的出海使用 ChatGPT 了。
YY 语音公司接入 DeepSeek 上线“YYDS”
YY 公司今日宣布接入 DeepSeek,并推出“低延时、不卡顿”的 YY-DeepSeek R1-满血版(简称“YYDS”),旗下 YY 直播、YY 语音等产品已经上线产品入口。
DeepSeek开源放大招:FlashMLA让H800算力狂飙!曝光低成本秘笈
就在刚刚,DeepSeek放出了开源周首日的重磅炸弹——FlashMLA。 这是DeepSeek专为英伟达Hopper GPU打造的高效MLA解码内核,特别针对变长序列进行了优化,目前已正式投产使用。 经实测,FlashMLA在H800 SXM5平台上(CUDA 12.6),在内存受限配置下可达最高3000GB/s,在计算受限配置下可达峰值580 TFLOPS。
“源神”DeepSeek!突破H800性能上限,FlashMLA重磅开源,算力成本还能降
DeepSeek开源周第一天,降本大法公开——FlashMLA,直接突破H800计算上限。 网友:这怎么可能? ?
刚刚,DeepSeek开源FlashMLA,推理加速核心技术,Star量飞涨中
上周五,DeepSeek 发推说本周将是开源周(OpenSourceWeek),并将连续开源五个软件库。 第一个项目,果然与推理加速有关。 北京时间周一上午 9 点,刚一上班(同时是硅谷即将下班的时候),DeepSeek 兑现了自己的诺言,开源了一款用于 Hopper GPU 的高效型 MLA 解码核:FlashMLA。
DeepSeek 开源周首日:发布大模型加速利器FlashMLA 解码性能飙升至3000GB/s
DeepSeek 开源周首日正式开源其最新技术成果FlashMLA,这是一款专为英伟达Hopper架构GPU打造的高效多层注意力(Multi-Layer Attention)解码内核。 该技术特别针对变长序列场景进行优化,可显著提升大模型推理性能。 FlashMLA的核心技术特性包括对BF16精度的全面支持,以及采用块大小为64的页式键值缓存(Paged KV Cache)系统,实现更精确的内存管理。
DeepSeek 入门指导手册——从入门到精通
DeepSeek 是由杭州深度求索人工智能基础技术研究有限公司精心打造的一款大型语言模型(LLM)。 该模型集自然语言处理(NLP)、计算机视觉(CV)、强化学习(RL)以及多模态融合技术等核心功能于一体。 DeepSeek 在国际上获得了高度关注:下载量:DeepSeek 应用在美国苹果应用商店的免费下载排行榜中超越了 ChatGPT,攀升至榜首位置。
DeepSeek 开源周首日:开源 FlashMLA,AI 推理速度再进化!
DeepSeek 开源周day1 推出 FlashMLA! 专为Hopper 架构 GPU打造的 超高效 MLA (Multi-Layer Attention) 解码内核,现在已经正式开源啦! 👏什么是 FlashMLA?
DeepSeek 代码库开源进度 1/5:为 Hopper GPU 优化的高效 MLA 解码内核 FlashMLA
DeepSeek今日启动“开源周”,首个开源的代码库为FlashMLA——针对 Hopper GPU 优化的高效 MLA 解码内核,支持可变长度序列。
黄仁勋怒怼市场 “你们都搞错了!”:DeepSeek R1 不是来砸场子, 反而是 Nvidia 的 “神助攻”
“你们都搞错了!” 近日, 英伟达掌门人 罕见 “ 动怒 ” , 公开回应了市场对中国 AI 创企 DeepSeek 发布 R1模型的 “ 过度 ” 反应。 在黄仁勋看来, DeepSeek R1的 横空出世非但不是 对 Nvidia 的 “ 饭碗 ” 构成 威胁, 反而是加速AI发展的重大利好, 对英伟达而言 更是 “ 神助攻 ” 一般的存在。 事情起因于今年1月 DeepSeek 发布 R1模型 后, 市场普遍认为 R1的高效性意味着未来AI发展将不再需要如此庞大的算力资源, 这直接导致Nvidia股价单日暴跌16.9%, 市值瞬间蒸发数百亿美元。
RAGFlow+DeepSeek-R1:14b落地案例分享(足够详细):机加工行业设备维保场景
看到一个段子说,春节开工以后,中国有 5000 万家企业老板担心会错过 DeepSeek。 虽然感觉有点瞎玩梗,但 DeepSeek 无疑已是当下所谓大模型企业应用落地的"房间里的大象"。 不过想想,其实子弹也才刚刚飞了一个月而已。
超 20 家央企接入 DeepSeek,涉及能源、通信、汽车等领域
据经济参考报报道,近来,国资央企“牵手”DeepSeek 已成为一股新风潮。据不完全统计,目前有超 20 家央企接入 DeepSeek,涉及能源、通信、汽车、金融、建筑等多个领域。