英特尔演示资料显示未来将推 AI 芯片 Jaguar Shores
"Jaguar Shores" 很可能是英特尔计划 2025 年推出的 AI GPU 芯片 "Falcon Shores" 的后继产品。- 971
- 0
微软开源 bitnet.cpp 1-bit LLM 推理框架:不靠 GPU 可本地运行千亿参数 AI 模型,能耗最多降低 82.2%
科技媒体 marktechpost 昨日(10 月 18 日)发布博文,报道称微软公司开源了 bitnet.cpp,这是一个能够直接在 CPU 上运行、超高效的 1-bit 大语言模型(LLM)推理框架。用户通过 bitnet.cpp 框架,不需要借助 GPU,也能在本地设备上运行具有 1000 亿参数的大语言模型,实现 6.17 倍的速度提升,且能耗可以降低 82.2%。传统大语言模型通常需要庞…- 30
- 0
中国算力大会,联想重磅发布两款明星算力新品
9月27日,为期3天的2024中国算力大会正式拉开帷幕。在大会异构智算产业生态联盟技术论坛上,联想集团正式发布新一代AI服务器联想问天WA7880a G3和联想AIPod应用部署解决方案两款重磅产品和解决方案。联想AI基础设施“一横五纵”的战略版图进一步丰富和完善。联想问天WA7880a G3是针对AI大模型训练推出的新一代AI服务器,具备多元算力、灵活配置和节能高效三大特点。它也是国内首款支持O…- 19
- 0
AI 江湖“饭局”:马斯克、埃里森晚宴上向黄仁勋求购英伟达 GPU
甲骨文创始人拉里・埃里森在公司最新财报电话会议上透露了一段轶事,他表示,自己曾与特斯拉 CEO 埃隆・马斯克一起,亲自向英伟达 CEO 黄仁勋求购最新的 AI GPU。在位于帕洛阿尔托的 Nobu 餐厅,埃里森和马斯克向黄仁勋恳求向他们供应英伟达的最新 GPU,“我们向他乞求,请卖给我们,不,多卖给我们,越多越好,我们都需要,拜托了。”埃里森回忆道,“最后事情进展顺利,起作用了。”这次晚餐显然非常…- 19
- 0
马斯克 xAI 上线全球最大 AI 训练集群:122 天搭建 10 万张英伟达 H100,未来几月将翻倍至 20 万张
埃隆・马斯克(Elon Musk)昨日(9 月 3 日)在 X 平台发布推文,宣布 xAI 打造的超级 AI 训练集群 Colossus 已经正式上线。马斯克在推文中表示,超级 AI 训练集群 Colossus 搭建用时 122 天,共有 10 万张英伟达 H100 GPU 加速卡,而在未来几个月将再翻倍增加 10 万张 GPU,其中 5 万张为更先进的 H200。英伟达数据中心官方账号随后转发马…- 21
- 0
Meta 构建分布式 RoCEv2 网络:探索串联数万片 GPU,训练千亿参数级 AI 模型
Meta 公司于 8 月 5 日发布博文,表示为了满足大规模分布式 AI 训练对网络的需求,构建了基于 RoCEv2 协议的大规模 AI 网络。RoCEv2 的全称是 RDMA Over Converged Ethernet version 2,是一种节点间通信传输方式,用于大部分人工智能容量。Meta 公司已成功扩展了 RoCE 网络,从原型发展到部署了众多集群,每个集群可容纳数千个 GPU。这…- 41
- 0
图灵奖得主 LeCun 加盟 AI 芯片黑马 Groq,估值 28 亿美元挑战英伟达
英伟达又双叒迎来强劲挑战者了。成立于 2016 年的初创公司 Groq 在最新一轮融资中筹集了 6.4 亿美元,由 BlackRock Inc. 基金领投,并得到了思科和三星投资部门的支持。目前,Groq 的估值已经达到 28 亿美元。公司创始人 Jonathan Ross 曾在谷歌从事 TPU 芯片的开发,而 Groq 目前的顶梁柱 LPU 也是专门用于加速 AI 基础模型,尤其是 LLM。Ro…- 14
- 0
小扎自曝砸重金训 Meta Llama 4 模型:24 万块 GPU 齐发力,预计 2025 年发布
Llama 3.1 刚发布不久,Llama 4 已完全投入训练中。这几天,小扎在二季度财报会上称,Meta 将用 Llama 3 的十倍计算量,训练下一代多模态 Llama 4,预计在 2025 年发布。这笔账单,老黄又成为最大赢家十倍计算量,是什么概念?要知道,Llama 3 是在两个拥有 24,000 块 GPU 集群完成训练。也就是说,Llama 4 训练要用 24 万块 GPU。那么,Me…- 15
- 0
Llama3.1 训练平均 3 小时故障一次,H100 万卡集群好脆弱,气温波动都会影响吞吐量
每 3 个小时 1 次、平均 1 天 8 次,Llama 3.1 405B 预训练老出故障,H100 是罪魁祸首?最近有人从 Meta 发布的 92 页超长 Llama 3.1 论文中发现了华点:Llama 3.1 在为期 54 天的预训练期间,经历了共 466 次任务中断。其中只有 47 次是计划内的,419 次纯属意外,意外中 78% 已确认或怀疑是硬件问题导致。而且 GPU 问题最严重,占了…- 28
- 0
Meta 训练 Llama 3 遭遇频繁故障:16384 块 H100 GPU 训练集群每 3 小时“罢工”一次
Meta 发布的一份研究报告显示,其用于训练 4050 亿参数模型 Llama 3 的 16384 个英伟达 H100 显卡集群在 54 天内出现了 419 次意外故障,平均每三小时就有一次。其中,一半以上的故障是由显卡或其搭载的高带宽内存(HBM3)引起的。由于系统规模巨大且任务高度同步,单个显卡故障可能导致整个训练任务中断,需要重新开始。尽管如此,Meta 团队还是保持了 90% 以上的有效训…- 17
- 0
马斯克的“世界最强大 AI 数据中心”目前由 14 台移动发电机供电,引环保担忧
埃隆・马斯克的孟菲斯超级计算集群(Memphis Supercluster)已上线,据马斯克介绍称,该集群在单个 RDMA fabric 上使用 10 万张液冷 H100,是“世界上最强大的 AI 训练集群”。如此庞大的算力自然需要惊人的电力供应,每个 H100 GPU 至少消耗 700 瓦电力,这意味着整个数据中心同时运行需要超过 70 兆瓦的电力,这还不包括其他服务器、网络和冷却设备的耗电量。…- 6
- 0
第四范式发布先知AIOS 5.1,升级支持GPU资源池化功能
今天,第四范式先知AIOS 5.1版本正式发布。该版本新增GPU资源池化(vGPU)能力,实现对硬件集群平台化管理、算力资源的按需分配和快速调度,最多节省80%的硬件成本,提高GPU综合利用率多达5-10倍。第四范式先知AIOS 5是行业大模型开发及管理平台。平台以提升企业核心竞争力为目标,在支持接入企业各类模态数据的基础上,提供大模型训练、精调等低门槛建模工具、科学家创新服务体系、北极星策略管理…- 5
- 0
投资巨头高盛质疑 AI 投资回报:巨额投入能否换来光明未来?
全球知名投行高盛 (Goldman Sachs) 近期对人工智能 (AI) 投资的回报率提出了质疑。尽管各大企业和投资者正斥资数十亿美元用于人工智能研发,但高盛担忧如此巨额的投入能否真正带来丰厚回报。图源 Pexels目前,我们使用的 LLM 大型语言模型(例如 GPT-4o)训练成本就高达数亿美元,下一代模型的训练成本更是预计将飙升至 10 亿美元。风投巨头红杉资本 (Sequoia Capit…- 14
- 0
暴涨 8050%,富国银行预估 2030 年 AI 产业用电激增至 652 TWh
富国银行(Wells Fargo)预测今年 AI 用电需求为 8 TWh,而到 2030 年将激增到 652 TWh,将增长 8050%。富国银行表示 AI 用电主要用于训练 AI 模型方面,在 2026 年将达到 40 TWh,到 2030 年将达到 402 TWh;此外 AI 推理耗电量将会在 21 世纪 20 年代末出现快速增长。如果单纯看这个数字可能没有直观的感觉,那么这里再附上一组数据:…- 25
- 0
AI 泡沫加剧,红杉资本:年产值 6000 亿美元才够领取硬件开支
红杉资本(Sequoia Capital)的分析师大卫・卡恩(David Cahn)发布报告,觉得 AI 产业泡沫家居,年产值超过 6000 亿美元,才够领取数据中心、加速 GPU 卡等 AI 基础设施费用。英伟达 2023 年数据中心硬件支出达到 475 亿美元(其中大部分硬件是用于 AI 和 HPC 应用的算计 GPU)。此外 AWS、google、Meta、微软等公司在 2023 年也在 A…- 24
- 0
全球 AI 面临 6000 亿美元难题,人工智能泡沫正在接近临界点
【新智元导读】AI 基础设施的巨额投资,和实际的 AI 生态系统实际支出之间,差距已经到了不可思议的地步。曾经全球 AI 面临的 2000 亿美元难题,往常已经翻成了 6000 亿美元。现在,业内关于 AI 模型支出的质疑声,已经越来越大。动辄投入几万亿美元打造基础设施,跟部分国家的 GDP 不相上下,然而从 AI 模型中得到的回报,究竟能有几何?在 2023 年 9 月,来自红杉资源的 Davi…- 19
- 0
13瓦功耗处理10亿参数,接近大脑效率,消除LLM中的矩阵乘法来颠覆AI现状
编辑 | 萝卜皮通常,矩阵乘法 (MatMul) 在大型言语模型(LLM)总体盘算成本中占据主导地位。随着 LLM 扩展到更大的嵌入维度和上下文长度,这方面的成本只会增加。加州大学、LuxiTech 和苏州大学的钻研职员声称开发出一种新格式,通过消除过程中的矩阵乘法来更有效地运行人工智能言语模型。这从根本上重新设计了目前由 GPU 芯片加速的神经网络操作方式。钻研职员描述了如何在不使用 MatMu…- 22
- 0
全美 TOP 5 机器进修博士:痛心,实验室 H100 数量为 0!同实验室博士用 GPU 得靠抢
【新智元导读】全美 TOP 5 的机器进修博士痛心发帖自曝,自己实验室里 H100 数目是 0!这也引起了 ML 社区的全球网友大讨论。显然,相比普林斯顿、哈佛这样动辄三四百块 H100 的 GPU 大户,更常见的是 GPU 短缺的「穷人」。同一个实验室的博士,甚至时常会出现需要争抢 GPU 的情况。全美 TOP 5 高校的机器进修博士,实验室却连一块 H100 都没有?最近,这位网友在 redd…- 6
- 0
首个类 Sora 开源复现方案,Open Sora 可在英伟达 RTX 3090 显卡上 AI 生成视频:最高 4 秒 240P
作为全球首个类 Sora(OpenAI 的文本生成视频模型)开源复现方案,Open-Sora 可以在英伟达 RTX 3090 GPU 上鉴于文本生成视频,最高可以生成 240P 分辨率、时长最长 4 秒的视频。处理 AI 恣意的 GPU 云服务提供商 Backprop 揭示了鉴于 Open-Sora V1.2 的 AI 环境,揭示 4 个鉴于提示词生成的视频。Backprop 表示:“在 RTX …- 38
- 0
Yandex 开源 LLM 训练对象浪费高达 20% 的 GPU 资本
跨国科技公司 Yandex 最近推出了 YaFSDP,这是一种用于训练大型语言模型 (LLM) 的开源方法。YaFSDP 是目前最有效的公开可用对象,用于增强 GPU 通讯并减少 LLM 训练中的内存运用量,与 FSDP 相比,其训练速率晋升最高可达 26%,具体取决于架构和参数数量。通过运用 YaFSDP 减少 LLM 的训练时间可以浪费高达 20% 的 GPU 资本。Yandex 承诺为寰球人…- 4
- 0
马斯克称将为 xAI 采办约 30 万块英伟达 AI 芯片,预估至少花费 90 亿美元
马斯克北京时间今天凌晨在回复一则投票时泄漏,xAI 的下一项重大举措可能是在明年夏天采办约 30 万块配备 CX8 网络的 B200 芯片。xAI 已在近期获得了 60 亿美元(IT之家备注:现在约 435.6 亿元人民币)融资,公司估值达到约 180 亿美元(现在约 1306.8 亿元人民币)。目前,xAI 计划通过加大对 GPU 集群的投资,大幅扩展其 AI 相关的产品组合。今年 4 月,X …- 9
- 0
英伟达黄仁勋解读“CEO 数学”:花小钱,办大事
英伟达首席执行官黄仁勋日前在 2024 台北电脑展前夕提出了一个有趣的观念 ——“CEO 数学”。“买得越多,省得越多,” 黄仁勋在演讲中表示,“这就是 CEO 数学,它并不完全准确,但却很有效。”乍一听让人困惑?黄仁勋随后解释了这个观念的含义。他建议企业同时投资图形处理器 (GPU) 和中央处理器 (CPU)。这两种处理器可以协同工作,将任务完成时间从“100 个单位缩短到 1 个单位”。因此,…- 5
- 0
黄仁勋一口气解密三代 GPU,量产英伟达 Blackwell 解决 ChatGPT 全球耗电难题
感谢IT之家网友 佳宜 的线索投递!【新智元导读】刚刚,老黄又高调向全全国秀了一把:已经量产的 Blackwell,8 年内将把 1.8 万亿参数 GPT-4 的训练能耗狂砍到 1/350;英伟达惊人的产品迭代,直接原地冲破摩尔定律;Blackwell 的后三代路线图,也一口气被放出。就在刚刚,老黄手持 Blackwell 向全全国展示的那一刻,全场的观众沸腾了。它,是迄今为止全国最大的芯片!▲ …- 6
- 0
GPU
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!