近日,IBM在论文中提出一款芯片,这款芯片可以通过在数据存储的位置执行计算来加速深度神经网络(DNN)的训练。据称,这种芯片的能源效率是GPU的280倍,可在同样面积上实现100倍的算力。该论文现已发表在 Nature 期刊上。
用GPU取代CPU来运行神经网络,已经使AI发展迅速,但GPU在运行时,仍要将处理和存储分开,导致数据的传递需要耗费大量的时间和能量。
未来的人工智能,需要大规模可扩展的计算单元,无论是在云端还是在边缘,DNN都会变得更大、更快。不过,在此之前,人们还不清楚DNN是不是真的能够通过模拟技术进行高精度训练。
由于当前NVM存储器的固有缺陷,以前相关实验都没有在DNN图像分类任务上得到很好的精度,这一次。IBM研究人员收了神经科学的启发,使用了短期计算和长期记忆两种类型的“突触”。随后,基于NVM的芯片在训练全连接层方面展现出了极强的潜力,在计算能效上超过了当前GPU两个数量级。
据称,这类芯片若加以应用,便可将AI引入手机、自动驾驶汽车等个人设备,还可提高数据中心的运行效率,降低科技公司的服务器运营成本。
领取专属 10元无门槛券
私享最新 技术干货