AI在线 AI在线

DeepSeek

梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍

2 月 18 日,马斯克发布 Grok 3 的热度还没过去,梁文锋就作为 co-authors 带着 DeepSeek 研究团队杀了回来。 公布新研究的推文发布不到 3 个小时,就带来了三十多万的浏览量,火爆程度不逊 OpenAI。 而这次 DeepSeek 团队最新的研究论文更是重磅,论文中介绍了一种全新的,可用于超快速的长上下文训练与推理的注意力机制 —— NSA,值得一提的是,NSA 还具有与硬件对齐的特点,十足的硬件友好。
2/24/2025 2:14:00 PM
郑佳美

腾讯健康接入DeepSeek+腾讯混元双模型 升级就医体验

2月24日,腾讯健康宣布通过腾讯云全面接入DeepSeek大模型,并与腾讯自研的混元大模型“双核组队”,全面升级医疗服务,涵盖智能导诊、预问诊、健康问答、智能用药、症状自查、影像报告解读及质控等多个场景。 这一升级旨在帮助全国超过1000家医院快速提升智能应用水平,并为医疗机构、体检中心、药械企业和基因测序企业提供多模型部署及应用方案。 此次升级围绕就医全流程展开,从诊前的健康问答、症状自查和智能导诊,到诊中的智能预问诊,再到诊后的报告解读和智能用药,腾讯健康正逐步将服务切换至“多模型”模式。
2/24/2025 2:02:00 PM
AI在线

DeepSeek开源周“第一刀”砍向算力!重磅开源FlashMLA,挑战H800算力极限,网友直呼:极致的工程设计!

编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)上周五,DeepSeek刚刚预告了重磅开源周! 周一一早,DeepSeek就履行承诺,开源了针对 Hopper GPU 的高效 MLA 解码内核——FlashMLA! 图片根据DeepSeek介绍,FlashMLA内核针对变长序列进行了优化,是已投入生产的核心技术。
2/24/2025 12:52:46 PM
伊风

从理论到实践:学会如何商用 DeepSeek,收藏这一篇就够了

Hi,大家好,我叫秋水,当前专注于 AI Agent 和 AI 工作流自动化。 近期 DeepSeek,全球闻名,大家纷纷在讨论,我看过很多文章和视频,很多说的有点夸张,23 年 AI 刚来的那些内容,又重新说了一遍,只是把 AI 两个字母换成了 DeepSeek。 在我看来,DeepSeek 出圈的主要原因是能力强、价格低、开源、可以本地部署,这个好处在于企业在 AI 方面的应用会加速落地,我们国内的用户不需要那么麻烦的出海使用 ChatGPT 了。
2/24/2025 12:20:14 PM
秋水

YY 语音公司接入 DeepSeek 上线“YYDS”

YY 公司今日宣布接入 DeepSeek,并推出“低延时、不卡顿”的 YY-DeepSeek R1-满血版(简称“YYDS”),旗下 YY 直播、YY 语音等产品已经上线产品入口。
2/24/2025 12:03:23 PM
汪淼

DeepSeek开源放大招:FlashMLA让H800算力狂飙!曝光低成本秘笈

就在刚刚,DeepSeek放出了开源周首日的重磅炸弹——FlashMLA。 这是DeepSeek专为英伟达Hopper GPU打造的高效MLA解码内核,特别针对变长序列进行了优化,目前已正式投产使用。 经实测,FlashMLA在H800 SXM5平台上(CUDA 12.6),在内存受限配置下可达最高3000GB/s,在计算受限配置下可达峰值580 TFLOPS。
2/24/2025 11:32:57 AM
dream

“源神”DeepSeek!突破H800性能上限,FlashMLA重磅开源,算力成本还能降

DeepSeek开源周第一天,降本大法公开——FlashMLA,直接突破H800计算上限。 网友:这怎么可能? ?
2/24/2025 11:31:33 AM

刚刚,DeepSeek开源FlashMLA,推理加速核心技术,Star量飞涨中

上周五,DeepSeek 发推说本周将是开源周(OpenSourceWeek),并将连续开源五个软件库。 第一个项目,果然与推理加速有关。 北京时间周一上午 9 点,刚一上班(同时是硅谷即将下班的时候),DeepSeek 兑现了自己的诺言,开源了一款用于 Hopper GPU 的高效型 MLA 解码核:FlashMLA。
2/24/2025 10:28:00 AM
机器之心

DeepSeek 开源周首日:发布大模型加速利器FlashMLA 解码性能飙升至3000GB/s

DeepSeek 开源周首日正式开源其最新技术成果FlashMLA,这是一款专为英伟达Hopper架构GPU打造的高效多层注意力(Multi-Layer Attention)解码内核。 该技术特别针对变长序列场景进行优化,可显著提升大模型推理性能。 FlashMLA的核心技术特性包括对BF16精度的全面支持,以及采用块大小为64的页式键值缓存(Paged KV Cache)系统,实现更精确的内存管理。
2/24/2025 10:18:00 AM
AI在线

DeepSeek 入门指导手册——从入门到精通

DeepSeek 是由杭州深度求索人工智能基础技术研究有限公司精心打造的一款大型语言模型(LLM)。 该模型集自然语言处理(NLP)、计算机视觉(CV)、强化学习(RL)以及多模态融合技术等核心功能于一体。 DeepSeek 在国际上获得了高度关注:下载量:DeepSeek 应用在美国苹果应用商店的免费下载排行榜中超越了 ChatGPT,攀升至榜首位置。
2/24/2025 10:07:10 AM
派大星

DeepSeek 开源周首日:开源 FlashMLA,AI 推理速度再进化!

DeepSeek 开源周day1 推出 FlashMLA! 专为Hopper 架构 GPU打造的 超高效 MLA (Multi-Layer Attention) 解码内核,现在已经正式开源啦! 👏什么是 FlashMLA?
2/24/2025 10:07:04 AM
AI寒武纪

DeepSeek 代码库开源进度 1/5:为 Hopper GPU 优化的高效 MLA 解码内核 FlashMLA

DeepSeek今日启动“开源周”,首个开源的代码库为FlashMLA——针对 Hopper GPU 优化的高效 MLA 解码内核,支持可变长度序列。
2/24/2025 9:47:40 AM
清源

黄仁勋怒怼市场 “你们都搞错了!”:DeepSeek R1 不是来砸场子, 反而是 Nvidia 的 “神助攻”

“你们都搞错了!” 近日, 英伟达掌门人 罕见 “ 动怒 ” , 公开回应了市场对中国 AI 创企 DeepSeek 发布 R1模型的 “ 过度 ” 反应。 在黄仁勋看来, DeepSeek R1的 横空出世非但不是 对 Nvidia 的 “ 饭碗 ” 构成 威胁, 反而是加速AI发展的重大利好, 对英伟达而言 更是 “ 神助攻 ” 一般的存在。 事情起因于今年1月 DeepSeek 发布 R1模型 后, 市场普遍认为 R1的高效性意味着未来AI发展将不再需要如此庞大的算力资源, 这直接导致Nvidia股价单日暴跌16.9%, 市值瞬间蒸发数百亿美元。
2/24/2025 9:47:00 AM
AI在线

RAGFlow+DeepSeek-R1:14b落地案例分享(足够详细):机加工行业设备维保场景

看到一个段子说,春节开工以后,中国有 5000 万家企业老板担心会错过 DeepSeek。 虽然感觉有点瞎玩梗,但 DeepSeek 无疑已是当下所谓大模型企业应用落地的"房间里的大象"。 不过想想,其实子弹也才刚刚飞了一个月而已。
2/24/2025 9:33:10 AM
韦东东

超 20 家央企接入 DeepSeek,涉及能源、通信、汽车等领域

据经济参考报报道,近来,国资央企“牵手”DeepSeek 已成为一股新风潮。据不完全统计,目前有超 20 家央企接入 DeepSeek,涉及能源、通信、汽车、金融、建筑等多个领域。
2/24/2025 8:56:11 AM
远洋

DeepSeek热度正盛,被神话还是确有实力?

2025年年初,中国初创公司DeepSeek以一种近乎现象级的速度崛起,引发了全球科技界的热议。 其模型在苹果应用商店的下载量超越ChatGPT、训练成本仅为竞争对手的零头、技术能力被冠以“颠覆性”标签……这些标签让DeepSeek迅速成为舆论焦点。 然而,在铺天盖地的赞誉与争议中,一个核心问题亟待回答:DeepSeek的“神话”究竟是资本市场的造势,还是AI实力的真实体现?
2/24/2025 8:28:30 AM
Yu

忘掉 DeepSeek:Qwen 2.5 VL 与 Qwen Max 来了

Qwen 系列又推出了两款令人瞩目的新模型:Qwen 2.5 VL 和 Qwen 2.5 Max。 如果还停留在“DeepSeek 是最强”那一档,就可能要重新考虑一下,因为这两款模型的实力相当惊艳。 什么是 Qwen 2.5 VL?
2/24/2025 8:10:00 AM
de

DeepSeek-R1 成 Hugging Face 最受欢迎大模型,力压近 150 万个“对手”

Clement Delangue今日凌晨发文宣布:DeepSeek-R1在Hugging Face上获得了超过10000个赞,成为该平台近150万个模型之中最受欢迎的大模型,“太令人震惊了!”
2/24/2025 7:59:13 AM
清源