伟达
英伟达回应 AI 芯片短缺:Blackwell 样品广泛试用,下半年增加量产
据第一财经报道,针对英伟达 AI 芯片被曝推迟发布的消息,8 月 4 日,英伟达方面回应记者称:“正如我们之前所说,Hopper 的需求非常强劲,Blackwell 的样品试用已经广泛开始,产量有望在下半年增加。除此之外,我们不对谣言发表评论。”此前 The Information 报道称,英伟达 AI 芯片设计缺陷可能会导致发布推迟三个月或更长时间,影响 Meta、谷歌和微软等客户。据AI在线此前报道,今年 7 月,英伟达为满足客户需求,向台积电追加 4nm 芯片订单,Blackwell 平台 GPU 芯片投片量
特斯拉得州超级计算集群命名“Cortex”,拥有 10 万颗英伟达芯片
埃隆・马斯克 (Elon Musk) 周末在参观了最近建成的得克萨斯州超级计算集群后,透露了该工厂的名称。周六,马斯克在 X 上写道,得州超级工厂的超级计算集群被命名为“Cortex”,并指出他刚刚完成了新设施的演练。“Cortex”拥有约 10 万颗英伟达 H100 和 H200 芯片,用于训练全自动驾驶(FSD)和人形机器人擎天柱(Optimus)的神经网络。AI在线注意到,马斯克此前还详细介绍了 Cortex 超级计算集群的巨大冷却需求,并解释说该集群今年将需要约 130 MW 的电力,未来 18 个月内更是
英伟达新 AI 芯片被曝因设计缺陷“跳票”至少 3 个月,微软、谷歌或受影响
感谢据《The Information》北京时间今天上午报道,帮助生产英伟达新 AI 芯片和服务器硬件的两位知情人士透露,由于存在“设计缺陷”,英伟达新型 AI 芯片的发布将被推迟三个月甚至更长时间。报道指出,这一缺陷可能会影响 Meta、谷歌、微软等一系列“大客户”,因为他们都已订购了价值数百亿美元的芯片。另外,还有一名微软员工和另一名知情人士透露,英伟达本周向微软和另一家大型云计算提供商发出通报,其新款 Blackwell 芯片中最先进的 AI 芯片将会“跳票”。据悉,微软是英伟达最大的客户之一。而据AI在线此
每月花费近 2000 万美元,消息称 TikTok 成为微软 AI 服务最大客户之一
感谢根据 The Information 当地时间 31 日的报道,截至今年 3 月份,TikTok 每月向微软支付近 2000 万美元(AI在线备注:当前约 1.45 亿元人民币),以通过微软购买 OpenAI 的模型。这笔金额几乎占据了微软 AI 收入的四分之一,也使 TikTok 成为微软 AI 服务的最大客户之一。在全球云计算市场的竞争中,微软通过整合 OpenAI 的人工智能技术,成功地将其云服务转化为一项利润丰厚的业务。微软的云 AI 业务有望实现年收入 10 亿美元(当前约 72.48 亿元人民币),
Getty 携手英伟达升级 AI 文生图服务:6 秒生成 4 张照片、提示词最多 250 个单词
Getty Images 和英伟达公司昨日(7 月 29 日)发布声明,联合推出安全的商业文生图 AI 模型,能够在 6 秒时间内生成 4 张照片,比以前的模型性能提高了一倍,速度处于行业领先水平。图源:英伟达Getty Images 表示全新文生图 AI 模型部分基于英伟达 Edify 模型架构,该架构隶属于英伟达 Picasso,主要为视觉设计搭建和部署生成式 AI 模型。英伟达 Edify 模型架构不仅能够带来更快的生成速度、更高的质量、更符合用户输入的提示词,而且该改进了 4K 采样和微调模型的能力。相比较
英伟达推出 AI 代工业务:携手 Meta Llama 3.1 开源模型,为客户定制部署“超级模型”
感谢英伟达公司昨日(7 月 23 日)发布新闻稿,正式推出“NVIDIA AI Foundry”代工服务和“NVIDIA NIM”推理微服务。“NVIDIA AI Foundry”代工服务英伟达表示客户可以使用 Meta 的 Llama 3.1 AI 模型,以及英伟达的软件、计算和专业知识,为特定领域定制构建“超级模型”。客户可以利用专有数据、由 Llama 3.1 405B 和英伟达 Nemotron Reward 模型生成的合成数据来训练这些“超级模型”。NVIDIA AI Foundry 由 NVIDIA D
SK 集团会长崔泰源将人工智能比作“淘金热”:如果 AI 迟迟不赚钱,英伟达的“镐子”也可能卖不出去
据《韩国时报》7 月 19 日报道,在上周五的第 47 届 KCCI 济州论坛上,韩国 SK 集团会长、大韩商会会长崔泰源发表了对 AI 的新看法。崔泰源警告称,如果 AI 技术行业未能保证足够的盈利能力,英伟达可能会在几年内失去主导地位。崔泰源将最近的 AI 热潮与 19 世纪美国的淘金热进行了类比,预计英伟达将至少在未来 3 年内保持领先地位,就像当时挖矿用的镐子和牛仔裤热销。然而,当没有更多的黄金时,镐子也就卖不出去了。“如果不赚钱,AI 的繁荣可能会消失,就像淘金热消失一样。”崔泰源还指出,微软、谷歌和亚马
英伟达 Mistral AI 联袂出击!120 亿小模型王者强势登场,碾压 Llama 3 单张 4090 可跑
GPT-4o mini 头把交椅还未坐热,Mistral AI 联手英伟达发布 12B 参数小模型 Mistral Nemo,性能赶超 Gemma 2 9B 和 Llama 3 8B。小模型,成为本周的 AI 爆点。先是 HuggingFace 推出了小模型 SmoLLM;OpenAI 直接杀入小模型战场,发布了 GPT-4o mini。GPT-4o mini 发布同天,欧洲最强 AI 初创公司 Mistral 立马发布旗下最新最强小模型 ——Mistral NeMo。Mistral NeMo 由 Mistral
尘埃落定,英国 AI 芯片企业 Graphcore 已被软银收购
根据 Graphcore 官网,这家正处困境的英国 AI 芯片企业已被软银收购。根据协议,Graphcore 将成为软银的全资子公司,继续以现有名称运营。双方并未透露具体交易价值。Graphcore 于 2016 年成立于英国西南部城市布里斯托尔,曾推出过多代被称为 Intelligence Processing Unit(AI在线注:简称 IPU)的 AI 负载加速器。Graphcore 曾一度被视为“英国版英伟达”。然而自 2020 年以来,该企业未获得新的融资,也丢失了来自微软的重要订单,这使其资金紧张、运营
全球 AI 面临 6000 亿美元难题,人工智能泡沫正在接近临界点
【新智元导读】AI 基础设施的巨额投资,和实际的 AI 生态系统实际收入之间,差距已经到了不可思议的地步。曾经全球 AI 面临的 2000 亿美元难题,如今已经翻成了 6000 亿美元。现在,业内关于 AI 模型收入的质疑声,已经越来越大。动辄投入几万亿美元打造基础设施,跟部分国家的 GDP 不相上下,然而从 AI 模型中得到的回报,究竟能有几何?在 2023 年 9 月,来自红杉资本的 David Cahn 发表了一篇名为《AI 的 2000 亿美元问题》的文章,目的是探讨:「AI 的收入都去哪了?」根据报告,当
马斯克:xAI 训练 Grok-3 大模型用了 10 万块英伟达 H100 芯片
马斯克已经宣布其人工智能初创公司 xAI 的大语言模型 Grok-2 将于 8 月推出,将带来更先进的 AI 功能。虽然 Grok-2 还没亮相,但马斯克已经开始为其 Grok-3 进行造势。马斯克表示,训练 AI 聊天机器人需要数据集,而且从现有数据中清除大型语言模型 (LMM) 的工作量很大。他还谈到了 OpenAI 模型输出训练的几个问题。他透露 xAI 的 Grok-3 用了 10 万块英伟达 H100 芯片进行训练,预计将于年底发布,相信它会“非常特别”。H100 是英伟达开发的专门用于处理大语言模型(L
英伟达 CEO 黄仁勋:重工业在下一波 AI 浪潮中实现自动化的时机已经成熟
综合财联社、CNBC 等报道,英伟达于当地时间 6 月 26 日召开了约半小时的股东大会,股东批准了所有 12 名董事提名人选,并通过了高管薪酬计划。文件显示,英伟达 CEO 黄仁勋 2024 财年薪酬方案包括 99.65 万美元(IT之家备注:当前约 725.1 万元人民币)的基本工资(Salary),以及 2667.6 万美元(当前约 1.94 亿元人民币)的股权激励等,总薪酬 3416.8 万美元(当前约 2.49 亿元人民币),相比上一年上涨约 60%。黄仁勋此次并未透露新产品相关信息。他表示,在英伟达先进
英伟达将在中东五国数据中心部署 AI 技术,首次在当地大规模推出产品
据路透社报道,卡塔尔电信集团 Ooredoo 首席执行官 Aziz Aluthman Fakhroo 当地时间 23 日在接受采访时表示,公司已经与英伟达签署协议,将在该公司于中东 5 个国家拥有的数据中心部署 AI 技术。此举意味着英伟达首次在中东地区大规模推出产品,Ooredoo 将成为该地区首家能够为其数据中心客户提供直接访问英伟达 AI 和图形处理技术权限的公司。此前,华盛顿曾限制向该地区出口美制尖端芯片。IT之家注:上文提到的 5 个中东国家包括卡塔尔、阿尔及利亚、突尼斯、阿曼、科威特。除此之外,Oore
英伟达开源 3400 亿巨兽:98% 合成数据训出最强开源通用模型,性能对标 GPT-4o
【新智元导读】刚刚,英伟达全新发布的开源模型 Nemotron-4 340B,有可能彻底改变训练 LLM 的方式!从此,或许各行各业都不再需要昂贵的真实世界数据集了。而且,Nemotron-4 340B 直接超越了 Mixtral 8x22B、Claude sonnet、Llama3 70B、Qwen 2,甚至可以和 GPT-4 掰手腕!就在刚刚,英伟达再一次证明了自己的 AI 创新领域的领导地位。它全新发布的 Nemotron-4 340B,是一系列具有开创意义的开源模型,有可能彻底改变训练 LLM 的合成数据生
英伟达优先向 X 供应 AI 芯片,特斯拉“靠边”?马斯克称后者芯片多到“吃灰”
感谢据 CNBC 援引英伟达高级员工内部邮件消息称,马斯克向股东“夸大”了特斯拉的芯片采购情况,还将原本计划留给特斯拉的大量 AI 芯片转移给 X(推特)平台。报道称,马斯克命令英伟达允许 X 公司“插队”,使其拥有高于特斯拉的优先性,从而使特斯拉收到价值超 5 亿美元(IT之家备注:当前约 36.25 亿元人民币)处理器的时间推迟了数月,或将导致特斯拉建立超级计算机进度延误。报道还提到了一份去年 12 月的英伟达备忘录,里面写道:“相比特斯拉,埃隆优先考虑在 X 上部署 H100 GPU 集群,将原定用于特斯拉的
鸿海宣布在高雄建造先进算力中心,与英伟达在 AI 等多领域合作
感谢台媒经济日报消息,全球最大 AI 服务器制造商鸿海科技集团今日在台北电脑展宣布,将与英伟达合作,以英伟达 GB200 “超级芯片”为核心,在高雄建造先进算力中心,使用 4608 颗芯片,预计 2026 年完工。鸿海科技集团董事长刘扬伟表示,将与英伟达在 AI、电动车、智能工厂、机器人、智能城市等多领域合作,通过鸿海庞大的制造规模,为行业作出更多贡献。英伟达创始人黄仁勋表示:“随着全球对 AI 需求的爆炸性增长,我们已经步入算力科技的新时代。鸿海在高雄建立的先进算力中心,将使用英伟达的 AI、Digital Tw
一年一更同步英伟达,AMD 公布 2024~2026 年 Instinct GPU 加速器路线图
感谢AMD 今日公布直至 2026 年的 Instinct GPU AI 加速器路线图。AMD 宣布其 Instinct 产品线更新节奏调整与英伟达相同的一年一更,以满足不断扩张的 AI 应用需求。AMD Instinct MI325X 加速器将在今年四季度率先上市 ,其可视为 MI300 更换 HBM3E 内存的刷新版本。该加速器内存容量将从 MI300X 的 192GB 提升至 288GB,同时内存带宽也从 5.3TB / s 小幅增加至 6TB / s(IT之家注:内存等效速率从 5.2Gbps 提升至 5.
英伟达黄仁勋解读“CEO 数学”:花小钱,办大事
英伟达首席执行官黄仁勋日前在 2024 台北电脑展前夕提出了一个有趣的概念 ——“CEO 数学”。“买得越多,省得越多,” 黄仁勋在演讲中表示,“这就是 CEO 数学,它并不完全准确,但却很有效。”乍一听让人困惑?黄仁勋随后解释了这个概念的含义。他建议企业同时投资图形处理器 (GPU) 和中央处理器 (CPU)。这两种处理器可以协同工作,将任务完成时间从“100 个单位缩短到 1 个单位”。因此,从长远来看,增加投资反而能节省成本。这种结合使用 CPU 和 GPU 的做法在个人电脑领域已经很普遍。“我们往一台 10