AI在线 AI在线

神经形态计算:从实验室原型到产业变革的前夜

作者:ScienceAI
2025-03-27 12:01
编辑 | matrix数十年来,科研人员一直致力于构建类脑计算机硬件,但这一领域尚未迎来真正的突破性进展。 如今,领先的研究者认为,构建首个能解决实际问题的规模化神经形态设备的时机已然成熟。 从仿生启发的潜力到技术深层的差异近年来推动人工智能进步的神经网络技术,虽从大脑中获得灵感,但其算法和硬件与生物神经元存在本质差异。

图片

编辑 | matrix

数十年来,科研人员一直致力于构建类脑计算机硬件,但这一领域尚未迎来真正的突破性进展。如今,领先的研究者认为,构建首个能解决实际问题的规模化神经形态设备的时机已然成熟。

从仿生启发的潜力到技术深层的差异

近年来推动人工智能进步的神经网络技术,虽从大脑中获得灵感,但其算法和硬件与生物神经元存在本质差异。神经形态工程师希望通过更精确模拟大脑工作机制,同时实现高效计算与超低能耗。

这一目标的核心在于采用脉冲神经网络(SNN)——其计算单元通过脉冲信号传递信息,而非传统神经网络中的数值计算。尽管学界与企业界兴趣日增,但多数实验仍停留在小规模阶段,尚未实现商业化突破。

今年 1 月发表于《Nature》的论文指出,神经形态计算正从学术原型转向可应对现实挑战的成熟设备。

相关链接:https://www.nature.com/articles/s41586-024-08253-8

该论文的作者之一、ARM 微处理器首席设计师史蒂夫·弗伯(Steve Furber)在接受《IEEE Spectrum》专访时,分享了关于技术临界点、软硬件协同等关键议题的见解。

硬件基础就绪,亟需「杀手级应用」

弗伯指出,当前技术已能支持任意规模的脉冲神经网络运行,但行业迫切需要证明其实际价值的标志性应用。

以他主导的 SpiNNaker 项目为例,最初定位是为脑科学研究提供工具,但近年来逐渐转向工程应用。

与此同时,主流 AI 因大语言模型(LLM)的惊人能耗遭遇瓶颈,这为神经形态技术提供了机遇——通过模拟生物神经元的能效特性,或可显著降低计算成本。

目前,英特尔 Loihi 2 系统、曼彻斯特大学的百万核 SpiNNaker 架构等设备已具备大规模部署能力。弗伯的合作团队正推广 500 万核级系统,这些平台理论上可运行完整的大语言模型。

但关键问题在于:如何优化算法以充分发挥硬件潜能?

图片

图示:SpiNNaker 团队组装了一个百万核神经形态系统。(来源:报道)

软件生态与协作壁垒的突破

硬件并非唯一挑战,高效软件工具的缺失制约着应用开发。

弗伯坦言,当前缺乏类似 TensorFlow 或 PyTorch 的高层设计工具,开发者仍需手动配置每个神经元参数。

欧盟「人类脑计划」推动的 PyNN 语言是重要进展,该框架已兼容 SpiNNaker 与海德堡大学的 BrainScaleS 系统。然而,多数实验室仍局限于自研平台,跨团队协作亟待加强。

英特尔通过 Lava 软件框架推动生态统一,但距离成熟生态仍有距离。弗伯强调,硬件底层差异可通过软件抽象层弥合,关键在于建立通用标准。

图片

图示:SpiNNaker 团队的一名成员正在检查该公司的百万核计算机。(来源:报道)

生物合理性与工程实用性的权衡

关于神经形态系统应多大程度模拟生物特性,学界存在分歧。

弗伯认为,研究阶段的技术多样性有助于探索最优方案,但转向应用时需聚焦共性。例如,大语言模型仅需简单神经元模型,但若融入更多生物机制,可能显著降低神经元数量。这需要深入研究验证。

在忆阻器等新型器件引发热潮的背景下,弗伯提醒:底层技术创新固然重要,但系统级问题的优先级更高。现有平台已支持研究推进,过度聚焦器件可能分散资源。

规模化转折的信号与挑战

弗伯将当前视为「临界点」:初创企业的生存验证了资本信心,主流 AI 的能耗危机催生变革需求。一旦出现能效优势的实证案例,行业格局或将重塑。

神经形态计算是否真能开启新时代?答案或许就在未来几年的技术演进与应用突破中。

相关报道:https://www.nature.com/articles/s41586-024-08253-8

相关资讯

Nature子刊:科学家在类脑芯片上实现类似LSTM的功能,能效高1000倍

格拉茨技术大学的计算机科学家在 Nature 子刊上发表的一篇论文表明,他们找到了一种在神经形态芯片上模拟 LSTM 的方案,可以让类脑神经形态芯片上的 AI 算法能效提高约 1000 倍。随着智能手机的普及,手机游戏也越来越受欢迎。但视频游戏等程序会大量耗电耗能。与 GPU 等标准硬件相比,基于 spike 的神经形态芯片有望实现更节能的深度神经网络(DNN)。但这需要我们理解如何在基于 event 的稀疏触发机制(sparse firing regime)中模拟 DNN,否则神经形态芯片的节能优势就会丧失。比如
5/21/2022 4:43:00 PM
机器之心

谷歌科学家 Nature 评论:人工智能如何更好地理解大脑

编译 | 绿萝2023 年 11 月 7 日,Google Research 高级研究科学家,Google 团队连接组学负责人 Viren Jain,在《Nature》发表了题为《人工智能如何更好地理解大脑》(How AI could lead to a better understanding of the brain)的评论文章。论文链接:?这是数学家、理论家和实验学家长期以来一直在问的一个问题——无论是出于创造人工智能 (AI) 的愿望,还是因为只有当数学或计算机能够重现其行为时,才能理解像大脑这样的复杂系统
11/9/2023 5:03:00 PM
ScienceAI

清华类脑计算模型登Nature子刊,受大脑启发的人工树突网络,实现高能效AI

编辑 | KX5 月 30 日,清华大学类脑计算研究中心施路平团队,研发出全球首款类脑互补视觉芯片「天眸芯」,研究成果登上 Nature 封面。近日,该团队推出一种新的神经形态计算架构,即类脑神经计算模型 「Dendristor」。「Dendristor」旨在复制突触的组织(即神经元之间的连接)和树突的树状结构(即从神经元体延伸出来的突起)。这种创新的树突网络模拟了树突状结构及其固有的时空处理特性,为未来人工智能提供了高能效的视觉感知能力。类脑形态树突网络计算模型的开发由清华大学跨学科团队清华大学脑与智能实验室(T
7/12/2024 2:43:00 PM
ScienceAI