DeepSeek 开源周首日:发布大模型加速利器FlashMLA 解码性能飙升至3000GB/s

DeepSeek 开源周首日正式开源其最新技术成果FlashMLA,这是一款专为英伟达Hopper架构GPU打造的高效多层注意力(Multi-Layer Attention)解码内核。 该技术特别针对变长序列场景进行优化,可显著提升大模型推理性能。 FlashMLA的核心技术特性包括对BF16精度的全面支持,以及采用块大小为64的页式键值缓存(Paged KV Cache)系统,实现更精确的内存管理。

DeepSeek 开源周首日正式开源其最新技术成果FlashMLA,这是一款专为英伟达Hopper架构GPU打造的高效多层注意力(Multi-Layer Attention)解码内核。该技术特别针对变长序列场景进行优化,可显著提升大模型推理性能。

QQ20250224-101526.png

FlashMLA的核心技术特性包括对BF16精度的全面支持,以及采用块大小为64的页式键值缓存(Paged KV Cache)系统,实现更精确的内存管理。在性能表现方面,基于CUDA12.6平台,FlashMLA在H800SXM5GPU上创下了显著成绩:在内存受限场景下达到3000GB/s的处理速度,在计算受限场景下则实现580TFLOPS的算力水平。

该项目已经过生产环境验证,展现出优异的稳定性。开发团队表示,FlashMLA的设计借鉴了FlashAttention2&3和cutlass等项目的优秀经验,并在此基础上实现了创新突破。

开发者可通过简单的安装命令快速部署FlashMLA:只需执行"python setup.py install"即可完成安装,随后可运行测试脚本"python tests/test_flash_mla.py"体验其性能。

开源地址:https://github.com/deepseek-ai/FlashMLA

相关资讯

刚刚,DeepSeek开源FlashMLA,推理加速核心技术,Star量飞涨中

上周五,DeepSeek 发推说本周将是开源周(OpenSourceWeek),并将连续开源五个软件库。 第一个项目,果然与推理加速有关。 北京时间周一上午 9 点,刚一上班(同时是硅谷即将下班的时候),DeepSeek 兑现了自己的诺言,开源了一款用于 Hopper GPU 的高效型 MLA 解码核:FlashMLA。

马斯克首次披露 Grok 3 的训练成本:高达 20 万块英伟达 GPU

近日,马斯克在直播中正式推出了全新的聊天机器人 Grok3,并透露了该模型训练的惊人成本。 Grok3目前已面向 Premium 订阅用户开放,并在多个评测领域表现出色,甚至超过了市场上其他竞争对手,如 Gemini、DeepSeek 和 ChatGPT。 马斯克在直播中介绍,Grok3的训练过程中共计消耗了20万块英伟达 GPU,这一数字让人震惊。

Meta“挥刀”砍向650亿美元AI账单!自研芯片亮剑,誓要摆脱英伟达“卡脖子”?

社交媒体巨头Meta正面临着前所未有的AI基础设施成本压力,预计仅AI相关支出就将飙升至惊人的650亿美元,整体年度总支出更是可能高达1190亿美元!面对如此天文数字的账单,这家科技巨头终于坐不住了,毅然走上了自研AI芯片的道路,并已在这一领域取得了显著进展。 最新的报告显示,Meta即将启动小规模的自研芯片部署,这一举动预示着,Meta将逐步摆脱对英伟达及其昂贵GPU的依赖,以此来降低训练人工智能模型的巨额成本。 Meta 并非一时冲动才做出自研芯片的决定,实际上,他们曾一度搁置了这个项目,个中缘由或许与研发过程中的重重挑战有关。