DeepSeek
兆芯全系列整机形态成功部署 DeepSeek R1 大模型
上海兆芯集成电路股份有限公司今日发文宣布:近日,基于兆芯高性能通用处理器的 PC 终端、工作站以及服务器成功实现 DeepSeek-R1-Distill 模型(1.5B / 7B / 32B / 70B / 671B 等)的本地部署。
腾讯云智能数智人、企点客服全面接入DeepSeek
2月24日,腾讯云智能数智人和腾讯企点客服正式宣布接入DeepSeek大模型,借助其卓越的语义理解和意图识别能力,进一步优化用户体验,提升服务质量和客户满意度。 腾讯云智能数智人全面接入DeepSeek大模型后,用户无需开发即可通过数智人平台内置的V3、R1等模型,让DeepSeek拥有真人外观并实现自然流畅的交互。 在交互场景中,数智人能够快速整合多源信息,提供精准解答,并支持多轮对话与上下文理解,广泛应用于政策问答、景区导览、展厅接待等场景。
双擎升级!商汤大装置DeepSeek企业版上线+免费版扩容
今年2月,商汤大装置万象平台正式上线了DeepSeek-R1、DeepSeek-V3等模型,并为免费版提供3个月内千万Token额度,受到客户的热烈响应。 为了更好的服务用户,经过系列优化,,现正式推出企业版,同时完成免费版国产化适配与算力扩容,形成专业强支撑 普惠广覆盖的双擎驱动! 登录官网,即刻体验!
腾讯元宝超越豆包登上苹果中国区APP免费榜第二 DeepSeek稳坐第一
近日,苹果中国区 APP 免费榜迎来了新的变化,腾讯的元宝应用一跃而起,超越豆包,跻身排行榜第二位。 榜首的位置则被 DeepSeek 牢牢占据。 这一现象不仅反映了市场竞争的激烈,也展示了国内大模型行业快速发展的势头。
月之暗面推出新优化器Muon,计算效率大幅提升
近日,人工智能领域再度掀起波澜,月之暗面(Moonshot)宣布开源新版优化器 Muon,成功将计算效率提升至传统 AdamW 的两倍。 这个新优化器的推出恰逢 DeepSeek 即将连续开源多个代码库,引发了业内的高度关注和讨论。 Muon 优化器最初由 OpenAI 的研究者 Keller Jordan 等人在2024年提出,针对小规模模型训练时表现优异。
DeepSeek一夜把百度干回20年前,网友:还有这好事?
没完了,刚刚接入DeepSeek的百度,又双叒叕搞事情了。 最新消息,“百度一下 你就知道”这条2005年开始伴随着中国用户度过了互联网黄金岁月的Slogan,回归了。 有意思的是,这种“炒冷饭”的行为在大厂中已经出现了人传人的现象。
多行业拥抱DeepSeek,全不顾它身上的“刺”
在数字化浪潮席卷全球的今天,技术革命的脚步正以指数级速率重构人类社会发展轨迹。 而DeepSeek的出现,毫无疑问重塑了商业世界的运行法则——从产业上游的芯片制造到终端消费者的移动支付,从医疗影像的毫厘级诊断到教育资源的跨时空共享,算法与数据的交织已然突破想象力的边界。 当下,众多产业正在与人工智能产生"化学反应",这种由技术创新引发的链式反应,正在三百六十度解构既有行业秩序,催生出"生产力跃迁2.0"时代的全新商业生态。
梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍
2 月 18 日,马斯克发布 Grok 3 的热度还没过去,梁文锋就作为 co-authors 带着 DeepSeek 研究团队杀了回来。 公布新研究的推文发布不到 3 个小时,就带来了三十多万的浏览量,火爆程度不逊 OpenAI。 而这次 DeepSeek 团队最新的研究论文更是重磅,论文中介绍了一种全新的,可用于超快速的长上下文训练与推理的注意力机制 —— NSA,值得一提的是,NSA 还具有与硬件对齐的特点,十足的硬件友好。
腾讯健康接入DeepSeek+腾讯混元双模型 升级就医体验
2月24日,腾讯健康宣布通过腾讯云全面接入DeepSeek大模型,并与腾讯自研的混元大模型“双核组队”,全面升级医疗服务,涵盖智能导诊、预问诊、健康问答、智能用药、症状自查、影像报告解读及质控等多个场景。 这一升级旨在帮助全国超过1000家医院快速提升智能应用水平,并为医疗机构、体检中心、药械企业和基因测序企业提供多模型部署及应用方案。 此次升级围绕就医全流程展开,从诊前的健康问答、症状自查和智能导诊,到诊中的智能预问诊,再到诊后的报告解读和智能用药,腾讯健康正逐步将服务切换至“多模型”模式。
DeepSeek开源周“第一刀”砍向算力!重磅开源FlashMLA,挑战H800算力极限,网友直呼:极致的工程设计!
编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)上周五,DeepSeek刚刚预告了重磅开源周! 周一一早,DeepSeek就履行承诺,开源了针对 Hopper GPU 的高效 MLA 解码内核——FlashMLA! 图片根据DeepSeek介绍,FlashMLA内核针对变长序列进行了优化,是已投入生产的核心技术。
从理论到实践:学会如何商用 DeepSeek,收藏这一篇就够了
Hi,大家好,我叫秋水,当前专注于 AI Agent 和 AI 工作流自动化。 近期 DeepSeek,全球闻名,大家纷纷在讨论,我看过很多文章和视频,很多说的有点夸张,23 年 AI 刚来的那些内容,又重新说了一遍,只是把 AI 两个字母换成了 DeepSeek。 在我看来,DeepSeek 出圈的主要原因是能力强、价格低、开源、可以本地部署,这个好处在于企业在 AI 方面的应用会加速落地,我们国内的用户不需要那么麻烦的出海使用 ChatGPT 了。
DeepSeek开源放大招:FlashMLA让H800算力狂飙!曝光低成本秘笈
就在刚刚,DeepSeek放出了开源周首日的重磅炸弹——FlashMLA。 这是DeepSeek专为英伟达Hopper GPU打造的高效MLA解码内核,特别针对变长序列进行了优化,目前已正式投产使用。 经实测,FlashMLA在H800 SXM5平台上(CUDA 12.6),在内存受限配置下可达最高3000GB/s,在计算受限配置下可达峰值580 TFLOPS。
“源神”DeepSeek!突破H800性能上限,FlashMLA重磅开源,算力成本还能降
DeepSeek开源周第一天,降本大法公开——FlashMLA,直接突破H800计算上限。 网友:这怎么可能? ?
刚刚,DeepSeek开源FlashMLA,推理加速核心技术,Star量飞涨中
上周五,DeepSeek 发推说本周将是开源周(OpenSourceWeek),并将连续开源五个软件库。 第一个项目,果然与推理加速有关。 北京时间周一上午 9 点,刚一上班(同时是硅谷即将下班的时候),DeepSeek 兑现了自己的诺言,开源了一款用于 Hopper GPU 的高效型 MLA 解码核:FlashMLA。
DeepSeek 开源周首日:发布大模型加速利器FlashMLA 解码性能飙升至3000GB/s
DeepSeek 开源周首日正式开源其最新技术成果FlashMLA,这是一款专为英伟达Hopper架构GPU打造的高效多层注意力(Multi-Layer Attention)解码内核。 该技术特别针对变长序列场景进行优化,可显著提升大模型推理性能。 FlashMLA的核心技术特性包括对BF16精度的全面支持,以及采用块大小为64的页式键值缓存(Paged KV Cache)系统,实现更精确的内存管理。
DeepSeek 入门指导手册——从入门到精通
DeepSeek 是由杭州深度求索人工智能基础技术研究有限公司精心打造的一款大型语言模型(LLM)。 该模型集自然语言处理(NLP)、计算机视觉(CV)、强化学习(RL)以及多模态融合技术等核心功能于一体。 DeepSeek 在国际上获得了高度关注:下载量:DeepSeek 应用在美国苹果应用商店的免费下载排行榜中超越了 ChatGPT,攀升至榜首位置。
DeepSeek 开源周首日:开源 FlashMLA,AI 推理速度再进化!
DeepSeek 开源周day1 推出 FlashMLA! 专为Hopper 架构 GPU打造的 超高效 MLA (Multi-Layer Attention) 解码内核,现在已经正式开源啦! 👏什么是 FlashMLA?
DeepSeek 代码库开源进度 1/5:为 Hopper GPU 优化的高效 MLA 解码内核 FlashMLA
DeepSeek今日启动“开源周”,首个开源的代码库为FlashMLA——针对 Hopper GPU 优化的高效 MLA 解码内核,支持可变长度序列。