黄仁勋

黄仁勋:英伟达 AI 芯片性能增速远超摩尔定律设定的标准

在拉斯维加斯举行的国际消费电子展 (CES) 上,英伟达 CEO 黄仁勋在一次面向万人的主题演讲后接受 TechCrunch 采访时表示,其公司 AI 芯片的性能提升速度已远超数十年来推动计算机技术进步的“摩尔定律”设定的标准。

英伟达将在越南开设 AI 中心,计划收购 AI 医疗技术公司 Vinbrain

在越南总理见证下,英伟达同越南政府签署协议,将在该国建设 AI 研发中心,但该协议的细节尚未公开

英伟达 CEO 黄仁勋盛赞香港科技大学:是“中国的 MIT”

据第一财经 24 日报道,黄仁勋称香港科技大学为“中国的 MIT(麻省理工学院,Massachusetts Institute of Technology)”,并称大湾区非常擅长机电一体化,这是机械技术和电子技术的交汇点。

英伟达黄仁勋称未来三种机器人有望大规模生产 :汽车、无人机和人形机器人

黄仁勋提到,三种机器人有望实现大规模生产,而且几乎仅限于这三种,历史上出现过的其他类型的机器人都很难实现大规模量产。这三种机器人分别是:汽车,因为我们在过去 150 到 200 年间构建了一个适应汽车的世界;其次是无人机,因为天空几乎没有限制;当然,产量最大的将是人形机器人,因为我们为自己构建了一个世界。

英伟达 CEO 黄仁勋获香港科技大学荣誉博士,称 AI 正在革新科学且机器人时代即将到来

被授予名单还包括演员梁朝伟(人文学荣誉博士)、2013 年诺贝尔化学奖得主迈克尔・莱维特(理学荣誉博士)和菲尔兹奖得主戴维・芒福德(理学荣誉博士)。

消息称马斯克正与英伟达就 xAI 投资事宜进行谈判

据 New York Post 报道,知情人士称,芯片巨头英伟达正在与埃隆・马斯克就对 xAI 的潜在投资进行谈判。 图源:xAIxAI 是马斯克创立的人工智能公司,其开发的大语言模型 Grok 目前已部署在社交媒体平台 X 上。 虽然 Grok 的推出时间晚于 OpenAI 的 ChatGPT 等竞争对手,但其增长和发展速度非常快。

100%英伟达的错:黄仁勋确认Blackwell缺陷修复,明年初出货

老黄:科技公司的芯片需求让我夜不能寐。 「我们的 Blackwell 芯片存在设计缺陷,虽然可以正常使用,但该设计缺陷导致良率低下,」黄仁勋表示。 「这 100% 是英伟达的错。

黄仁勋:英伟达已将 AI 应用于芯片设计、软件编写和供应链管理等领域

感谢据《华尔街日报》今日报道,英伟达 CEO 黄仁勋对数千名企业技术领导者表示,企业必须转型为依靠人工智能驱动的组织,以迎接他所称的“新工业革命”。黄仁勋说,英伟达已经将这种理念付诸实践,积极地将 AI 应用于芯片设计、软件编写和供应链管理等领域。黄仁勋表示,从长远来看,英伟达正在打造他所述的“AI 大脑”。

黄仁勋新访谈:OpenAI是这个时代最具影响力公司之一,马斯克19天创造工程奇迹

10 月 4 日,播客节目 BG2(Brad Gerstner 和 Clark Tang)邀请到了英伟达 CEO 黄仁勋,他们一起讨论了 AGI、机器学习加速、英伟达的竞争优势、推理与训练的重要性、AI 领域未来的市场动态、AI 对各个行业的影响、工作的未来、AI 提高生产力的潜力、开源与闭源之间的平衡、马斯克的 Memphis 超级集群、X.ai、OpenAI、AI 的安全开发等。近日,BG2 发布了这期播客节目。AI在线简要整理了其中的关键信息。

英伟达 CEO 黄仁勋展望公司未来:坐拥 5 万名员工、部署 1 亿个 AI 助手

英伟达 CEO 黄仁勋(Jensen Huang)昨日在“Bg 2”播客中表示,他希望英伟达有一天能够成为一家拥有 5 万名员工的公司,同时部署 1 亿个 AI 助手,从而“进一步提高公司的生产力”,他同时还强调,这并不会导致公司裁员。黄仁勋还畅想了这样一个未来:英伟达将在公司的每个部门大规模部署 AI 助手,以提高产出。AI 助理能够帮助员工高速处理琐碎的事务,同时“AI 也会招募其他 AI 来解决问题、AI 之间也能够相互交流,并与人类沟通”,从而提升公司协同效率。

实测 | GPT-o1:学会了思考,也学会了偷懒

我可能是全网第一个花钱向 GPT-o1 提问,人在深圳靠一条网线横跨太平洋到美国硅谷让 OpenAI 最强大模型 GPT-o1 模型思考 38 秒之后、宕机了半小时选择拒绝回答问题并收了我2.5块(一瓶肥宅快乐水)的韭菜......  (因为这个模型只支持订阅使用并且一个月只回复120条内容,plus会员订阅费1个月20美刀,约等于1.25软妹币1条回答......)OpenAI 今天凌晨突击更新 GPT-o1,早上起来全网都在开香槟,大意就是突破了LLM极限,新模型能力在生物、物理比肩甚至超越人类博士生。 另一个特性就是 o1 模型会用更长的时间思考以此来尽可能完善的回答问题。

英伟达黄仁勋:每个人都将拥有 AI 助手

7 月 30 日消息,黄仁勋在 SIGGRAPH 2024 大会上与《连线》杂志资深撰稿人 Lauren Goode 共同探讨了 AI 增强人类生产力的未来、加速计算的能源效率以及图形和 AI 的交汇等话题。NVIDIA 创始人兼首席执行官黄仁勋表示,深度植根于视觉计算的生成式 AI 正在增强人类的创造力,而加速计算有望显著提高能源效率。“每个人都将拥有 AI 助手,”黄仁勋表示,“每家企业,每个岗位,都将拥有 AI 助手。”生成式 AI 有望提高人类生产力,其所依赖的加速计算技术也将让计算更加节能,黄仁勋表示。“

黄仁勋、扎克伯格支持 AI 大模型开源,两人互换外套

感谢当地时间 7 月 29 日,在美国丹佛举行的第 51 届 SIGGRAPH 图形大会上,英伟达创始人 CEO 黄仁勋和 Meta 创始人 CEO 马克・扎克伯格举行炉边谈话,讨论人工智能和仿真模拟的未来。这场对话一开始还算正常,黄仁勋热情洋溢地介绍了英伟达 GPU 的强大功能,扎克伯格则畅谈了他对 AI 聊天机器人的未来愿景。黄仁勋还称赞了 Meta 的开源大模型,他与扎克伯格都同意应坚持大模型的开源路线。但随后画风突变,在对谈接近尾声时,两人竟然互换了外套。扎克伯格表示,他为黄仁勋准备了一件黑色皮革和羊毛皮外

未来职场更“卷”,黄仁勋:“multi-shot”AI 具备超强推理能力,可视为“员工”

英伟达首席执行官黄仁勋发表新言论,表示未来职场会更“卷”,具备推理能力的 AI 可以充当“员工”的角色,处理各种复杂的任务,在某些领域甚至会超越人类。图源:WikiMedia黄仁勋表示 AI 将会极大地改变未来就业形势,随着 AI 的盛行,程序员这个岗位可能会“寿终正寝”。黄仁勋表示由于写代码即将被淘汰,推荐下一代在专业方面最好选择生物、教育、制造或农业等其他职业。IT之家附上视频如下:黄仁勋预测下一波 AI 浪潮中,自动驾驶汽车和仿人机器人将站在最前沿。他表示当前 AI 模型和系统为“one-shot”,结合他的

英伟达 CEO 黄仁勋:重工业在下一波 AI 浪潮中实现自动化的时机已经成熟

综合财联社、CNBC 等报道,英伟达于当地时间 6 月 26 日召开了约半小时的股东大会,股东批准了所有 12 名董事提名人选,并通过了高管薪酬计划。文件显示,英伟达 CEO 黄仁勋 2024 财年薪酬方案包括 99.65 万美元(IT之家备注:当前约 725.1 万元人民币)的基本工资(Salary),以及 2667.6 万美元(当前约 1.94 亿元人民币)的股权激励等,总薪酬 3416.8 万美元(当前约 2.49 亿元人民币),相比上一年上涨约 60%。黄仁勋此次并未透露新产品相关信息。他表示,在英伟达先进

英伟达成全球市值最高公司,黄仁勋加州理工演讲:年轻人抓住机会,要跑不要走

新一轮 AI 革命的最大受益者。6 月 18 日,全球科技领域迎来了一个重要时刻。英伟达超越微软,成为了全球市值最高的公司。这家芯片制造商在最近一个交易日的股价上涨 3.5% 达到 135.58 美元,市值升至 3.334 万亿美元。其实就在几天前,英伟达还刚刚超越了苹果,占据了全球市值第二的位置。过去一年里,英伟达市值持续飙升,已成为华尔街对新兴生成式人工智能技术乐观情绪的象征。不过在另一方面,虽然英伟达的涨势推动标准普尔 500 和纳斯达克指数创下历史新高,但也有投资者逐渐担心,如果出现技术发展放缓的迹象,市场

英伟达黄仁勋解读“CEO 数学”:花小钱,办大事

英伟达首席执行官黄仁勋日前在 2024 台北电脑展前夕提出了一个有趣的概念 ——“CEO 数学”。“买得越多,省得越多,” 黄仁勋在演讲中表示,“这就是 CEO 数学,它并不完全准确,但却很有效。”乍一听让人困惑?黄仁勋随后解释了这个概念的含义。他建议企业同时投资图形处理器 (GPU) 和中央处理器 (CPU)。这两种处理器可以协同工作,将任务完成时间从“100 个单位缩短到 1 个单位”。因此,从长远来看,增加投资反而能节省成本。这种结合使用 CPU 和 GPU 的做法在个人电脑领域已经很普遍。“我们往一台 10

“AI 工厂”将推动软件全栈重塑,英伟达提供 Llama3 NIM 容器供用户部署

在目前正在进行的黄仁勋 2024 台北电脑展主题演讲上,黄仁勋介绍生成式人工智能将推动软件全栈重塑,展示其 NIM(Nvidia Inference Microservices)云原生微服务。英伟达认为“AI 工厂”将掀起一场新产业革命:以微软开创的软件行业为例,黄仁勋认为生成式人工智能将推动其全栈重塑。为方便各种规模的企业部署 AI 服务,英伟达今年 3 月推出了 NIM(Nvidia Inference Microservices)云原生微服务。NIM 是一套经过优化的云原生微服务,旨在缩短上市时间,并简化生成