深度学习NatureDeep physical neural networks trained with backpropagation——Nature,2022.
文章简介
《用反向传播法训练的深度物理神经网络》
深度学习模型已经成为科学和工程领域的普遍工具。然而,他们的能量需求现在越来越限制他们的可扩展性(Patterson et al., 2020)。深度学习加速器旨在高效地进行深度学习,通常以推理阶段为目标,并经常通过利用传统电子学以外的物理基质。迄今为止的方法都无法应用反向传播算法来就地训练非常规的新型硬件。逆传播的优势使其成为大规模神经网络事实上的训练方法,所以这一缺陷构成了一个主要障碍。在这里,作者介绍了一种混合的原位硅学算法,称为物理感知训练,它应用反向传播来训练可控的物理系统。正如深度学习实现了由数学函数层组成的深度神经网络的计算一样,该方法允许我们训练由可控物理系统层组成的深度物理神经网络,即使物理层与传统的人工神经网络层缺乏任何数学同构性。为了证明该方法的普遍性,作者训练了基于光学、机械学和电子学的各种物理神经网络,以实验方式执行音频和图像分类任务。物理感知训练结合了反向传播的可扩展性和原地算法可实现的缺陷和噪声的自动缓解。物理神经网络有可能比传统的电子处理器更快、更节能地进行机器学习,更广泛地说,可以赋予物理系统自动设计的物理功能,例如,机器人,材料和智能传感器。
与人工智能的许多历史发展一样,深度神经网络(DNNs)的广泛采用部分是由协同硬件促成的。2012年,在早期工作的基础上,Krizhevsky等人表明,反向传播算法可以通过图形处理单元有效执行,以训练大型DNN进行图像分类。自2012年以来,DNN模型的计算要求迅速增长,超过了摩尔定律。现在,DNNs越来越受到硬件能效的限制。
新出现的DNN能源问题激发了特殊用途的硬件。DNN "加速器 ",其中大多数是基于硬件物理和DNN数学运算之间的直接数学同构(图1a,b)。有几个加速器提案使用了传统电子学以外的物理系统,如光学和模拟电子横梁阵列。大多数设备针对的是深度学习的推理阶段,在商业部署中,推理阶段占深度学习能源成本的90%以上(Patterson et al., 2020),尽管越来越多的设备也在解决训练阶段的问题(e.g., Kohda et al., 2020)。
Reference Nature
深度学习
Wright, L.G., Onodera, T., Stein, M.M., Wang, T., Schachter, D.T., Hu, Z., & McMahonet, P, L. (2022). Deep physical neural networks trained with backpropagation. Nature, 601, 549–555. https://doi.org/10.1038/s41586-021-04223-6
Data and Code availability
Data availability: 这项工作中产生的所有数据和使用的代码都可以在以下网站上找到:
https://doi.org/10.5281/zenodo.4719150
Code availability: 一个应用PAT训练PNN的可扩展示范代码可在以下网站获得
https://github.com/mcmahon-lab/Physics-Aware-Training
这项工作所使用的所有代码可在以下网址获得:
https://doi.org/10.5281/zenodo.4719150
作者和单位简介
(1). 康奈尔大学应用与工程物理学院
(2). NTT物理和信息学实验室,NTT研究公司.
(3). 康奈尔大学电气和计算机工程学院.
(4). NTT物理和信息学实验室,NTT研究公司.
本文分享自 GEE遥感大数据学习社区 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!