Nature子刊:科学家在类脑芯片上实现类似LSTM的功能,能效高1000倍

格拉茨技术大学的计算机科学家在 Nature 子刊上发表的一篇论文表明,他们找到了一种在神经形态芯片上模拟 LSTM 的方案,可以让类脑神经形态芯片上的 AI 算法能效提高约 1000 倍。随着智能手机的普及,手机游戏也越来越受欢迎。但视频游戏等程序会大量耗电耗能。与 GPU 等标准硬件相比,基于 spike 的神经形态芯片有望实现更节能的深度神经网络(DNN)。但这需要我们理解如何在基于 event 的稀疏触发机制(sparse firing regime)中模拟 DNN,否则神经形态芯片的节能优势就会丧失。比如

格拉茨技术大学的计算机科学家在 Nature 子刊上发表的一篇论文表明,他们找到了一种在神经形态芯片上模拟 LSTM 的方案,可以让类脑神经形态芯片上的 AI 算法能效提高约 1000 倍。

随着智能手机的普及,手机游戏也越来越受欢迎。但视频游戏等程序会大量耗电耗能。与 GPU 等标准硬件相比,基于 spike 的神经形态芯片有望实现更节能的深度神经网络(DNN)。但这需要我们理解如何在基于 event 的稀疏触发机制(sparse firing regime)中模拟 DNN,否则神经形态芯片的节能优势就会丧失。

比如说,解决序列处理任务的 DNN 通常使用长 - 短期记忆单元(LSTM),这种单元很难模拟。现在有一项研究模拟了生物神经元,通过放慢每个脉冲后的超极化后电位(AHP)电流,提供了一种有效的解决方案。AHP 电流可以很容易地在支持多节段(multi-compartment)神经元模型的神经形态硬件(例如英特尔的 Loihi 芯片)上实现类似于 LSTM 的功能。

Nature子刊:科学家在类脑芯片上实现类似LSTM的功能,能效高1000倍

滤波器逼近理论能够解释为什么 AHP 神经元可以模拟长短期记忆网络的功能。这产生了一种高能效的时间序列分类方法,让类脑神经形态芯片上的 AI 算法能效提高约 1000 倍。此外,它为高效执行大型 DNN 提供了基础,以解决有关自然语言处理的问题。研究论文近期发表在《自然 · 机器智能》期刊上。

Nature子刊:科学家在类脑芯片上实现类似LSTM的功能,能效高1000倍

论文地址:https://www.nature.com/articles/s42256-022-00480-w

曼彻斯特大学的计算机科学家 Steve Furber 评价这项研究称:「这是一项令人印象深刻的工作,可能给复杂 AI 算法(例如语言翻译、自动驾驶)的性能带来巨大飞跃。」

研究动机

AI 程序通常擅长在数据集中找到特定的模式。例如,在图像识别中,AI 算法首先会找到图像清晰的边缘,然后在拼凑出整体图像时记住这些边缘以及图像的所有后续部分。

这种网络的一个共同组成部分是一个被称为 LSTM 的软件单元,它在事物随时间变化时保持一个元素(element)的记忆。例如,图像中的垂直边缘需要保留在内存中,因为软件会确定它是代表数字「4」的一部分还是汽车的门。典型的 AI 系统必须同时跟踪数百个 LSTM 元素。

当前在传统计算机芯片上运行的 LSTM 网络非常准确,但是非常耗电。为了处理信息比特,它们必须首先检索存储数据的各个比特,对其进行操作,然后再将它们送回存储,并一遍又一遍地重复这个过程。

英特尔、IBM 等芯片制造商一直在尝试一种新的芯片设计方式——神经形态芯片。这种芯片处理信息的方式就像大脑中的神经元网络,其中每个神经元接收来自网络中其他神经元的输入,并在总输入超过阈值时触发。

在这种新芯片中,一些相当于神经元的硬件被连接在一起形成网络。AI 程序也依赖于人造神经网络,但在传统计算机中,这些神经元完全由软件定义,需要来回访问存储。

这种神经形态芯片同时处理存储和计算,因此更加节能。但要利用这种架构,计算机科学家需要在新型芯片架构上重新研究如何运行 LSTM 等网络。

这正是来自格拉茨技术大学的计算机科学家 Wolfgang Maass 等研究者的工作重点。他和他的同事试图复刻人脑中的一种记忆存储机制,这种机制由生物神经网络执行,称为超极化后电位 (AHP) 电流。

AHP 神经元放电模式

大脑中的神经元在触发后通常会返回到其基线水平并保持静止,直到它再次接收到超过其阈值的输入而被触发。但在 AHP 网络中,神经元放电一次后,会暂时禁止再次放电,这有助于神经元网络在消耗更少能量的同时保留信息。

Maass 和他的同事将 AHP 神经元放电模式集成到他们的神经形态神经网络软件中,并通过两个标准的 AI 测试运行他们的网络。第一个挑战是让软件在分割成数百个独立像素的图像中识别手写数字「3」。在这个测试中,他们发现,当在英特尔的神经形态 Loihi 芯片上运行时,他们的算法比在传统芯片上运行的基于 LSTM 的图像识别算法的能效高 1000 倍。

在第二项测试中,研究人员给了该网络一个 20 个句子组成的故事,测试它对故事含义的理解。结果,该神经形态装置的效率是传统计算机处理器算法的 16 倍。

Maass 指出,第二次测试是在英特尔第一代 Loihi 芯片的 22 个系列上进行的,这些芯片在相互通信时消耗相对较大的能量。该公司已经推出了第二代 Loihi 芯片,每一个都有更多的神经元,他说这将减少 chip-to-chip 通信需求,从而使软件运行更高效。

目前,神经形态芯片的商业化案例还是凤毛麟角。因此,这项研究的大规模应用可能不会很快出现。但是艾伦研究所的计算神经科学家 Anton Arkhipov 说,先进的 AI 算法(如 Maass 所展示的算法)可以帮助这些芯片获得商业立足点。「至少,这将加速 AI 系统的构建。」

反过来,这又将加速新颖的 AI 应用的出现,如一个更加智能的 AI 数字助理,这个助理不仅可以提示照片中某个人物的名字,还能帮你回忆起你是在哪里认识的这个人,以及你们之间发生了什么故事。

Maass 说,通过整合大脑中的其他神经元放电模式,未来的神经形态装置甚至有一天可以开始探索众多神经元放电模式如何共同产生意识。

原文链接:https://www.science.org/content/article/microchips-mimic-human-brain-could-make-ai-far-more-energy-efficient

相关资讯

谷歌科学家 Nature 评论:人工智能如何更好地理解大脑

编译 | 绿萝2023 年 11 月 7 日,Google Research 高级研究科学家,Google 团队连接组学负责人 Viren Jain,在《Nature》发表了题为《人工智能如何更好地理解大脑》(How AI could lead to a better understanding of the brain)的评论文章。论文链接:?这是数学家、理论家和实验学家长期以来一直在问的一个问题——无论是出于创造人工智能 (AI) 的愿望,还是因为只有当数学或计算机能够重现其行为时,才能理解像大脑这样的复杂系统

清华类脑计算模型登Nature子刊,受大脑启发的人工树突网络,实现高能效AI

编辑 | KX5 月 30 日,清华大学类脑计算研究中心施路平团队,研发出全球首款类脑互补视觉芯片「天眸芯」,研究成果登上 Nature 封面。近日,该团队推出一种新的神经形态计算架构,即类脑神经计算模型 「Dendristor」。「Dendristor」旨在复制突触的组织(即神经元之间的连接)和树突的树状结构(即从神经元体延伸出来的突起)。这种创新的树突网络模拟了树突状结构及其固有的时空处理特性,为未来人工智能提供了高能效的视觉感知能力。类脑形态树突网络计算模型的开发由清华大学跨学科团队清华大学脑与智能实验室(T

网传Ilya Sutskever的推荐清单火了,掌握当前AI 90%

随着生成式 AI 模型掀起新一轮 AI 浪潮,越来越多的行业迎来技术变革。许多行业从业者、基础科学研究者需要快速了解 AI 领域发展现状、掌握必要的基础知识。如果有一份「机器学习精炼秘笈」,你认为应该涵盖哪些知识?近日,一份网传 OpenAI 联合创始人兼首席科学家 Ilya Sutskever 整理的一份机器学习研究文章清单火了。网友称「Ilya 认为掌握了这些内容,你就了解了当前(人工智能领域) 90% 的重要内容。」推荐清单:,Ilya Sutskever 重点关注 transformer 架构、循环神经网络