编辑 | 萝卜皮
随着大规模深度神经网络(NN)和其他人工智能(AI)应用的最新发展,人们越来越担心训练和操作它们所需的能源消耗。
物理神经网络可以成为这个问题的解决方案,但传统算法的直接硬件实现面对着多重困难。使用传统反向传播算法训练神经网络会面对一些挑战,例如缺乏可扩展性、训练过程中操作的复杂性以及对数字训练模型的依赖。
洛桑联邦理工学院(École Polytechnique Fédérale de Lausanne,EPFL)和微软研讨团队(Microsoft Research)等机构组成的合作团队提出了一种通过物理部分进修(PhyLL)算法增强的简单深度神经网络架构,该架构可以对深度物理神经网络进行监视和无监视训练,而无需详细了解非线性物理层的属性。
利用这种办法,研讨人员在元音和图像分类实验中训练了多种鉴于波的物理神经网络,并展示了该办法的普遍性。该团队的办法比其他硬件感知训练方案具有优势,可以提高训练速度、增强稳健性;同时,通过消除零碎建模的需要来降低功耗,从而减少数字计算需求。
该研讨以「Backpropagation-free training of deep physical neural networks」为题发,于 2023 年 11 月 23 日发布在《Science》。
深度进修已成为一项取得了巨大成功的突破性技术,主要在传统的冯·诺依曼计算硬件上运行。该技术目前面对高能耗(例如 GPT-3 的 1.3 GWh 用电量)和低计算速度的问题。
由于这些挑战,科学家正在探索人工神经网络(ANN)的替代物理平台,包括光学、自旋电子学、纳米电子设备、光子硬件和声学零碎。
目前,部分进修已被广泛研讨用于训练数字神经网络,从早期的 Hopfield 模型中的 Hebbian 比照进修工作到最近的生物学合理框架、块式 BP 和比照表示进修。
受这一概念的启发,为了解决鉴于 BP 的 PNN 训练的局限性,EPFL 等机构的研讨人员提出了一种简单且物理兼容的 PNN 架构,并通过物理部分进修 (PhyLL) 算法进行了增强。
图:Deep PNNs。(起源:论文)
该办法能够在本地对任意 PNN 进行监视和无监视比照进修训练,而无需了解非线性物理层并训练数字孪生模型。在这种无 BP 办法中,通常由数字计算机执行的标准后向传递被替换为通过物理零碎的附加单个前向传递。
这种替代可以消除由于其他硬件感知框架中存在的数字孪生建模阶段而产生的额外开销,从而提高鉴于波的 PNN 训练阶段的训练速度、功耗和内存使用率。
图:Acoustic-PNN。(起源:论文)
该办法即使在暴露于不可预测的外部扰动的零碎中,依然能保持稳健性和适应性。
图:Deep PNN 对不可预测的外部扰动的稳健性。(起源:论文)
为了展示该办法的普遍性,研讨人员使用三个鉴于波的零碎进行了实验元音和图像分类,这三个零碎在潜在的波现象和所涉及的非线性类型方面有所不同。
图:Microwave-PNN。(起源:论文)
由于人工神经网络规模空前增长,例如预计将不断增加的大型语言模型(LLM),这些网络的训练和推理阶段的成本呈指数级增长。
PNN 等专用硬件有可能大幅降低这些成本。之前 Anderson 团队曾经预测,与未来大型 Transformer 模型的数字电子处理器相比,推理时间能效优势约为 8000 倍。EPFL 团队提出的训练办法可以作为训练这些光学 LLMs 的可行候选办法,有可能提供显著的能源效率和速度优势。
图:Optics-PNN。(起源:论文)
利用光学实现大规模 LLM 仍然面对一些挑战,例如当前的 SLM 容量仅限于几百万个参数,远低于所需的数十亿个参数。然而,实现十亿参数光学架构和节能 PNN 并不存在根本障碍。
《Science》杂志副主编 Yury Suleymanov 评价道:「该研讨是优化神经网络中的能源密集型训练步骤的重要一步,从而为现代人工智能零碎提供更有效的解决方案。」
论文链接:https://www.science.org/doi/10.1126/science.adi8474