硅光子学能构建更好的神经网络吗?

人工智能的商业化实现让企业争相为这个数十亿美元的市场开发下一个重大硬件技术突破。虽然对神经形态和量子计算等领域的研究已经吸引了未来人工智能系统的大部分注意力,但使用光学处理器的想法正在慢慢获得关注。

与电子学相比,光学技术具有低功耗和低延迟的明显优势,这对人工智能来说是两个特别重要的因素。

事实上,这项技术有足够的前景,英特尔(Intel)将资助一项研究工作,利用这家芯片制造商在硅光子学、半导体制造和深度学习硬件设计方面的专长,将基于光学的人工智能计算推向市场。这项研究由英特尔人工智能产品部门的首席技术官办公室高级主任卡西米尔•维琴斯基(Casimir Wierzynski)牵头。虽然这项工作还处于早期阶段,但维尔琴斯基和他在加州大学伯克利分校的同事们已经发表了一篇论文,详细介绍了他们最近的一些工作。

简而言之,研究的重点是光学神经网络(ONNs),以及如何利用硅光子学实现不同的电路设计,以尽量减少由于制造过程中引入的变化而导致的计算精度不精确。(计算光子学本质上是模拟的,因此对电路中的缺陷很敏感。)研究人员使用基于MNIST数据集的手写数字识别深度学习基准测试了两种ONN设计的性能。

“你可以把这样的设备想象成光学TPU,”Wierzynski告诉我们,他指的是谷歌为深度学习专门开发的定制张量处理单元。虽然TPU是全数字化的,但ONNs使用光子学来执行神经网络处理的底层矩阵操作,其余的计算依然依赖于电子学。

与基于自由空间设计的光学计算不同,通过衍射器拍摄激光以实现快速傅立叶变换,硅光子学在光学电路级别工作。因此,它可以利用现代半导体制造中固有的可扩展性。英特尔在硅光子学和半导体制造方面拥有专业知识,这使得光学神经网络成为这家芯片制造商颇具吸引力的押注对象。“我们知道如何小型化光学电路,”Wierzynski解释道。“我们非常擅长这一点。”

本文所描述的研究工作是基于ONNs的仿真,而不是任何硬件实现。考虑到这一点,研究表明,在理想条件下,手写识别测试的准确率约为95%。它能够保持高水平的精度,即使在仿真中加入了噪声——噪声被用来表示电路制造和校准中的不精确性。另一种ONN设计的精度更高,达到98%,但随着噪声的引入,其性能迅速下降。

基于之前ONN的研究工作,Wierzynski指出,这些设备可以实现皮秒范围内的推理延迟,这比从GPU、CPU甚至FPGA中挤出来的延迟要小得多。这些数字架构的延迟通常在毫秒范围内。

同样,基于硅光敏器件的能源效率有望明显优于电子器件。随着电路数量的增加,ONN的能效会变得更好,因为一些功率开销可以在整个设备上摊销。这是因为激光器的固定功率成本驱动光子通过电路; 无论这些光子必须穿过多少电路,光学计算基本上是免费的。

该装置的构建块是Mach-Zender干涉仪(MZI),其用于在硅衬底上形成波导。当您将两个波导靠近在一起时,它们会以产生模拟等效2×2矩阵乘法的方式相互干扰。技巧是能够将这些MZI电路的数量排列在一起,以便可以执行更大的矩阵乘法运算。英特尔的研究重点是安排这些电路,以便最大限度地减少制造变化的影响,从而提高光学计算的精度。

精度是这些设备的症结所在,这使得人工智能推理,而不是训练,成为任何初始工作的逻辑选择。但是,如果能在更大程度上规避制造中的缺陷,人工智能训练,甚至更精确的应用,如高性能计算模拟,也能得到解决。

但这超出了我们的能力范围。在这一点上,仅显示了模拟的ONN设计。任何硬件实现,如果存在的话,在英特尔也都是不公开的。但考虑到芯片制造商在硅光子学领域的专业知识和对数据通信的兴趣,这几乎肯定是这项研究的目标。事实上,如果原型ONN硬件还没有安装在英特尔实验室的某个地方,我们也不会感到惊讶。

能源效率、近乎实时的延迟和可扩展性的结合,可能会使这项技术适用于各种人工智能环境——从超大规模的云到物联网边缘设备,以及汽车、数据中心、手机当中。

原文链接:https://www.shangyexinzhi.com/article/details/id-130510/

编辑于

我来说两句

0 条评论
登录 后参与评论

扫码关注云+社区

领取腾讯云代金券