英伟达GPU

​前英特尔CEO批评英伟达AI芯片定价,认为推理才是未来机遇

前英特尔首席执行官帕特・盖尔辛格(Pat Gelsinger)近日在英伟达2025年 GPU 技术大会的《Acquired》播客中表示,英伟达的人工智能(AI)图形处理器(GPU)定价策略过高,难以支持大规模的 AI 推理任务。 盖尔辛格指出,推理是部署 AI 模型的关键环节,当前行业的发展趋势应该更关注推理,而英伟达的技术在成本效益上难以满足这一需求。 图源备注:图片由AI生成,图片授权服务商Midjourney他提到,英伟达用于 AI 训练的处理器价格高达现实所需的10,000倍之多。

Meta“挥刀”砍向650亿美元AI账单!自研芯片亮剑,誓要摆脱英伟达“卡脖子”?

社交媒体巨头Meta正面临着前所未有的AI基础设施成本压力,预计仅AI相关支出就将飙升至惊人的650亿美元,整体年度总支出更是可能高达1190亿美元!面对如此天文数字的账单,这家科技巨头终于坐不住了,毅然走上了自研AI芯片的道路,并已在这一领域取得了显著进展。 最新的报告显示,Meta即将启动小规模的自研芯片部署,这一举动预示着,Meta将逐步摆脱对英伟达及其昂贵GPU的依赖,以此来降低训练人工智能模型的巨额成本。 Meta 并非一时冲动才做出自研芯片的决定,实际上,他们曾一度搁置了这个项目,个中缘由或许与研发过程中的重重挑战有关。

DeepSeek 开源周首日:发布大模型加速利器FlashMLA 解码性能飙升至3000GB/s

DeepSeek 开源周首日正式开源其最新技术成果FlashMLA,这是一款专为英伟达Hopper架构GPU打造的高效多层注意力(Multi-Layer Attention)解码内核。 该技术特别针对变长序列场景进行优化,可显著提升大模型推理性能。 FlashMLA的核心技术特性包括对BF16精度的全面支持,以及采用块大小为64的页式键值缓存(Paged KV Cache)系统,实现更精确的内存管理。

马斯克首次披露 Grok 3 的训练成本:高达 20 万块英伟达 GPU

近日,马斯克在直播中正式推出了全新的聊天机器人 Grok3,并透露了该模型训练的惊人成本。 Grok3目前已面向 Premium 订阅用户开放,并在多个评测领域表现出色,甚至超过了市场上其他竞争对手,如 Gemini、DeepSeek 和 ChatGPT。 马斯克在直播中介绍,Grok3的训练过程中共计消耗了20万块英伟达 GPU,这一数字让人震惊。
  • 1