芯片
Marvell 美满电子获得新 AI 芯片订单,到 2026 财年相关业务收入将达 25 亿美元
Marvell 美满电子在上周举办的一场有关 AI 基础设施领域的投资者活动上表示其新近获得了一份来自大型科技公司的 AI 芯片订单。Marvell 宣称,包括这份订单在内,其已从“四家美国超大型企业”中的三家拿下定制芯片订单,包括为客户 A 定制 AI 训练加速器和 AI 推理加速器,为客户 B 定制 Arm 架构 CPU 和近日的为客户 C 定制 AI 加速器。▲ 图源 Marvell 美满电子官方,下同Marvell 表示,客户 A 的 AI 训练加速器和客户 B 的 Arm 架构 CPU 已处于产能爬坡阶段
Meta 发布新一代 AI 训练与推理芯片,性能为初代芯片三倍
Meta Platforms 当地时间 10 日发布了其训练与推理加速器项目(MTIA)的最新版本,MTIA 是 Meta 专门为 AI 工作负载设计的定制芯片系列。据介绍,此次发布的新一代 MTIA 与第一代 MTIA 相比,显著改进了性能,并有助于强化内容排名和推荐广告模型。其架构从根本上侧重于提供计算、内存带宽和内存容量的适当平衡。该芯片还可帮助提高训练效率,使推理(即实际推理任务)变得更容易。Meta 在其官方博客文章中表示,“实现我们对定制芯片的雄心壮志,意味着我们不仅要投资于计算芯片,还要投资于内存带宽
英特尔展示多模块芯片预热 Vision 2024 活动,预计为 Gaudi 3 人工智能加速器
英特尔官方账户近日在 X 平台晒出一段包含“至少十个”模块的复合芯片近照短视频,为北京时间今日 23:30 开幕的 Vision 2024 活动进行预热。根据该动态下方消息人士 Bionic_Squash 和 Raichu 的回复,以及同IT之家以往报道中概念图的对比,图中芯片基本确认为英特尔 Gaudi 3 人工智能加速器。▲ 此前报道中出现的 Gaudi 3 概念图视频显示,Gaudi 3 芯片整体包含 10 个主要模块,包含 2 个用短边相连的计算模块和 8 个内存堆栈(HBM 模块)。英特尔此前表示 Gau
消息称三星与韩国互联网巨头 NAVER 启动 Mach-2 人工智能芯片联合研发
感谢据韩媒 ETNews 报道,三星电子与韩国互联网巨头 NAVER 双方已启动人工智能芯片 Mach-2 的联合研发。消息人士透露,双方正在讨论 Mach-2 芯片开发设计的重点。该芯片将由 NAVER 设计核心软件,三星电子则负责芯片的设计和生产。三星电子与 NAVER 于 2022 年达成研发合作协议,为超大规模人工智能模型(如 NAVER 的 HyperCLOVA X 模型)开发定制半导体解决方案,最近引发关注的 Mach-1 推理加速芯片就是双方合作的成果。开发双方宣称,Mach-1 采用了独特设计,在能
SK 海力士拟投资近 40 亿美元,建设其首家美国芯片工厂
感谢据彭博社报道,全球排名第二的内存芯片制造商 ——SK 海力士表示,计划斥资 38.7 亿美元(IT之家备注:当前约 280.58 亿元人民币)在印第安纳州建造一座先进的封装厂和人工智能产品研究中心。SK 海力士计划在美国西拉斐特市建设首个工厂,并计划于 2028 年下半年开始量产。该工厂将重点建设下一代高带宽存储芯片生产线,这些芯片是训练人工智能(AI)系统图形处理器的关键组件。作为 HBM 芯片的主要设计者和生产商,SK 海力士已逐渐成为 AI 发展大潮中的关键参与者,其生产的芯片与英伟达公司的处理器协同工作
底薪即为普通员工均薪 3.57 倍,三星以优厚待遇为 AGI 计算实验室延揽人才
据韩媒 Sedaily 报道,三星电子正以优厚待遇为其新成立的 AGI(通用人工智能)计算实验室招募 AI 领域人才,开出的年度底薪就有 5 亿韩元(IT之家备注:当前约 267.5 万元人民币)。根据韩国 CXO 研究所 2022 年的数据,当时三星电子普通员工的平均年薪为 1.4 亿韩元,5 亿韩元是这一数值的 3.57 倍。三星 AGI 计算实验室于 3 月宣布成立,在韩美两国均设有机构,由前谷歌开发人员禹东赫(Dong Hyuk Woo)领导,致力于开发出能满足未来 AGI 计算需求的全新类型半导体。该实验
三星组建 HBM 产能质量提升团队,加速 AI 推理芯片 Mach-2 开发
三星电子 DS 部门负责人庆桂显近日在社交媒体上表示三星内部正采取双轨 AI 半导体策略,同步提高在 AI 用存储芯片和 AI 算力芯片领域的竞争力。在 AI 用存储芯片部分,三星组建了由 DRAM 产品与技术负责人 Hwang Sang-joon 领导 HBM 内存产能与质量提升团队,这是其今年建立的第二个 HBM 专门团队。三星近期在 HBM 内存上进行了大规模的人才投入,旨在赢回因策略失误而被 SK 海力士拿下的 HBM 内存市场领军地位:2019 年,三星因对未来市场的错误预测,解散了当时的 HBM 研发团
消息称高通、谷歌、英特尔等联合开发 AI 软件:让代码不挑硬件,打破英伟达统治格局
感谢英伟达凭借 AI 芯片的领先,如今已成为行业巨无霸,包括微软等巨头也需要与其合作,全球超过 400 万开发者依靠英伟达的 CUDA 软件平台来构建 AI 和其他应用。据路透社报道,为了打破这一局面,包括高通、谷歌和英特尔在内的科技公司联盟,计划从软件入手与英伟达解绑,帮助 AI 开发者不必依赖英伟达平台。高通 AI 和机器学习主管 Vinesh Sukumar 在接受路透社采访时表示:“我们实际上是在向开发者展示如何从英伟达平台迁移出来。”UXL 基金会是一家科技公司联盟,以英特尔开发的一项 OneAPI 技术
消息称三星电子年底前向 Naver 交付 AI 芯片 Mach-1,交易额至高 1 万亿韩元
据韩媒 hankyung 报道,三星计划年底向韩 IT 巨头 Naver 出货 AI 芯片 Mach-1,交易额至高 1 万亿韩元(IT之家备注:当前约 54.2 亿元人民币)。近日三星电子 DS 部门负责人庆桂显宣称,Mach-1 目前处于 SoC 设计阶段,三星计划在今年底完成该 AI 芯片的制造过程。Mach-1 基于非传统结构,可将其核心计算芯片同 LPDDR 片外内存间的瓶颈降低至现有 AI 芯片的 1/8,同时能耗也只是英伟达竞品的 1/8。据以往报道,三星与 Naver 于 2022 年末展开了 AI
达摩院2025届春招启动,开放20余类实习岗位
3月21日消息,阿里达摩院已开启春季2025届实习生招聘,面向海内外2025届应届毕业生开放20余类实习岗位。记者注意到,达摩院招聘官网放出的岗位信息,既有视频多模态理解、多语言大模型、医疗AI、运筹优化等热门的人工智能方向,更有芯片软件、芯片设计/验证/DFT、计算体系结构、编辑器与计算体系结构开发等集成电路方向。部分岗位信息显示,达摩院的研究方向注重不同领域的融合探索,如“设计探索针对新型芯片架构的编译工具链,探索流行深度学习算法在新一代计算架构芯片上的优化算法”,要求候选人有集成电路设计或深度学习算法等研究经
三星计划今年底明年初推出 AI 芯片 Mach-1,采用 LPDDR 而非 HBM 内存
三星电子 DS(设备解决方案)部门负责人庆桂显(Kye Hyun Kyung)在今日的三星电子股东大会上宣布,三星电子计划今年底明年初推出采用 LPDDR 内存的 AI 芯片 Mach-1。庆桂显表示,Mach-1 芯片已完成基于 FPGA 的技术验证,正处于 SoC 设计阶段。该 AI 芯片将于今年底完成制造过程,明年初推出基于其的 AI 系统。韩媒 Sedaily 报道指,Mach-1 芯片基于非传统结构,可将片外内存与计算芯片间的瓶颈降低至现有 AI 芯片的 1/8。此外,该芯片定位为一种轻量级 AI 芯片,
三星宣布成立 AGI 计算实验室,研究满足未来需求的下一代半导体
感谢三星半导体 CEO 庆桂显(Kye Hyun Kyung)今日于领英发文,宣布在美国和韩国成立三星半导体 AGI(Artificial General Intelligence,通用人工智能)计算实验室。▲ 三星半导体 CEO 领英动态实验室由前谷歌开发人员禹东赫(Dong Hyuk Woo)领导,致力于开发一种能满足未来通用人工智能计算需求的全新半导体。AGI 计算实验室最初将开发用于大语言模型 LLM 的芯片,专注于推理与服务应用。为了开发能大幅降低运行 LLM 所需功耗的芯片,三星半导体正在重新审视芯片架
消息称英伟达 Blackwell“B100”GPU 将配 192GB HBM3e 显存,B200 配 288GB 显存
感谢英伟达将在明日举行 GTC 2024 主题演讲,黄仁勋预计将宣布名为 Blackwell 的下一代 GPU 架构。据 XpeaGPU 爆料称,明天推出的 B100 GPU 将采用两个基于台积电 CoWoS-L 封装技术的芯片。CoWoS(晶圆基片芯片)是一项先进的 2.5D 封装技术,涉及将芯片堆叠在一起,提高处理能力,同时节省空间并降低功耗。XpeaGPU 透露,B100 GPU 的两个计算芯片将连接到 8 个 8-Hi HBM3e 显存堆栈,总容量为 192GB。值得注意的是,AMD 已经提供了 192GB
可训练24万亿参数的大模型,Cerebras 推出其下一代晶圆级 AI 芯片
图:Cerebras 第三代晶圆级 AI 巨型芯片 WSE-3。(来源:Cerebras)编辑 | 白菜叶人工智能超级计算机公司 Cerebras 表示,其下一代晶圆级人工智能芯片可以在消耗相同电量的情况下将性能提高一倍。Wafer Scale Engine 3 (WSE-3,文中又称 CS-3) 包含 4 万亿个晶体管,由于使用了更新的芯片制造技术,比上一代增加了 50% 以上。该公司表示将在新一代人工智能计算机中使用 WSE-3,这些计算机目前正在 Dallas 的一个数据中心组装,这将是一台能够执行 8 ex
宣称其 CPU 设计能效高于现有 MCU 百倍,创企 Efficient Computer 已获 1600 万美元融资
综合外媒路透社、Tom's Hardware 和 SiliconANGLE 报道,初创企业 Efficient Computer 近日宣布其高能效 Fabric 架构 Monza 处理器测试芯片已回片,并获得 1600 万美元(IT之家备注:当前约 1.15 亿元人民币)种子轮融资。▲ Monza 测试芯片。图源 Efficient Computer 官方,下同Efficient Computer 宣称现有冯・诺依曼架构处理器“浪费了 99% 能源”:这些处理器首先对于性能优化设计,因此牺牲了能源效率。同时,目前的
为每个 AI 模型定制芯片,Tenstorrent 创始人新公司获 5000 万美元融资
据外媒 SiliconANGLE 报道,由 Tenstorrent 创始人 Ljubisa Bajic 领导的 AI 芯片创企 Taalas 已收获两轮共计 5000 万美元(IT之家备注:当前约 3.6 亿元人民币)的融资,该公司目标为特定 AI 模型打造专用芯片。Ljubisa Bajic 在 AMD 与英伟达均有任职经历,是 Tenstorrent 的创始人和首任 CEO。2022 年 10 月其转任 Tenstorrent 的 CTO 兼总裁,将 CEO 职位交与著名芯片设计师 Jim Keller。Lju
AMD 的下一代 GPU 是 3D 集成的超级芯片:MI300 将 13 块硅片组合为一个芯片
编辑 | 白菜叶AMD 在近日的 AMD Advancing AI 活动中揭开了其下一代 AI 加速器芯片 Instinct MI300 的面纱,这是前所未有的 3D 集成壮举。MI300 将为 El Capitan 超级计算机提供动力,它是一个集计算、内存和通信于一体的夹层蛋糕,有三片硅片高,可以在这些硅平面之间垂直传输多达 17 TB 的数据。它可以使某些机器学习关键计算的速度提高 3.4 倍。该芯片与 Nvidia 的 Grace-Hopper 超级芯片和英特尔的超级计算机加速器 Ponte Vecchio
Chiplet设计、性能240%提升,英特尔下一代数据中心CPU设计来了
最大支持 144 核心。