前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >华为诺亚加法网络再升级:精度提升,可以逼近任意函数

华为诺亚加法网络再升级:精度提升,可以逼近任意函数

作者头像
机器之心
发布2023-03-29 17:12:35
8430
发布2023-03-29 17:12:35
举报
文章被收录于专栏:机器之心

机器之心报道

编辑:Panda

深度卷积神经网络的计算常常需要巨大的能耗,因此难以在移动设备上实现。为此学界正在探索研究各式各样的新方法,本文要介绍的这项研究提出了使用加法替代 CNN 中的乘法(卷积),从而极大降低神经网络使用时的能耗。

该研究的初步结果已在 CVPR 2020 发表(arXiv:1912.13200)。本文要介绍的是最新的研究成果,在新版本中,AdderNet 的性能已经获得了显著的提升,并且还具有了完善的理论保证。

首先,该研究团队证明了具有单个隐藏层 AdderNet 和宽度有界的 AdderNet 可以近似一个紧集中任意勒贝格可积函数。其结果可与传统神经网络的通用近似结果相媲美。该团队还给出了单隐藏层的 AdderNet 的近似边界。

其次,为了有效地优化 AdderNet,该团队设计了从 L2 到 L1 过渡的训练方案和自适应学习率扩展,以确保参数的充分更新和更优的网络收敛。他们在多个图像分类数据集上测试了新提出的 AdderNet,实验结果表明 AdderNet 的准确率相比于之前版本有着显著地提升,可以在 ImageNet 等大型数据集上取得与传统 CNN 相当的识别准确度。

深度卷积神经网络(CNN)的计算常常需要执行数以十亿计次的乘法,得益于图形处理器(GPU)的迅速发展,这些乘法的执行速度得到了显著提升,进而为大量计算机视觉任务带来了巨大的发展,其中包括图像分类、目标检测、图像分割和人脸验证。

但是,高端 GPU 卡的功耗实在太高(比如 GeForce RTX 2080 Ti 的功耗超过 250W),导致现代深度学习系统无法被部署到智能手机、相机和手表等计算资源有限的移动设备中。而且现有的 GPU 卡体积也较大,很难安装到移动设备上。因此,研究能以可负担的计算能耗运行在移动设备上的高效深度神经网络是很有必要的。

在数学中,加减乘除是四种最基本的运算。众所周知,乘法的速度慢于加法,但是深度神经网络前向推理过程中的计算包含了大量权重和激活函数之间的乘法。因此,许多论文尝试研究了如何减少神经网络中的乘法计算,从而加快深度学习速度。

在这一方向上的开创性研究是 Yoshua Bengio 团队 2015 年提出的 BinaryConnect,其会将网络权重强制设为二值(比如 -1 或 1,这个过程称为二值化),使得卷积网络中的乘加运算可被简单的累加运算替代。在那之后,该团队进一步提出了二值化神经网络(Binarized neural networks,BNN),其不仅会将权重变为二值,而且也会将卷积神经网络运行时的激活也设为二值。 

尽管深度神经网络的二值化可以显著降低计算成本,但往往难以保证原有的识别精度。此外,二值网络的训练过程并不稳定,而且通常需要使用较小的学习率,因此会有更慢的收敛速度。CNN 中的卷积实际上是通过计算互相关(cross-correlation)来测算激活和卷积核之间的相似度。以往的研究已经习惯于使用卷积来提取视觉数据中的有效特征,并且引入各种方法来加快卷积的速度,即便其中可能存在牺牲网络能力的风险。但之前很少有研究者尝试用另一种更高效的相似度度量来替代卷积,例如仅涉及加法的 L1 计算。事实上,相比于乘法,加法的计算复杂度要低得多。

由北京大学、华为诺亚方舟实验室、悉尼大学和香港科技大学联合的团队抓住了这个研究机会,探索了在卷积神经网络中使用加法替代乘法的可行性。

他们的论文提出了加法神经网络(AdderNet),其最大化地使用了加法,同时抛弃了卷积运算,将 L1 距离用作度量函数,从而计算输入特征和滤波器之间的相似度,用于代替原始卷积中的互相关度量。

图 1:可视化 AdderNet 和 CNN 中的特征

如图所示,在 CNN 中,不同类别的特征聚集在不同的角度上。而在 AdderNet 中,特征往往聚集在不同的类别中心,这是因为 AdderNet 使用了 L1 距离来区别不同的类别。这个可视化结果说明 L1 距离和传统的互相关都可被用作度量,来计算深度神经网络中滤波器与输入特征之间距离的相似度。由于减法可使用加法的补码轻松实现,因此仅使用加法的 L1 度量可作为一种对硬件友好的度量,并且在构建神经网络时可以很自然地有效替代卷积。 

AdderNet 的设计思路

令 F 为深度神经网络的一个中间层中的滤波器,其核大小为 d,输入通道为 c_in,输出通道为 c_out。输入特征定义为 X,特征的高度和宽度分别为 H 和 W。输出特征为 Y,其表明了滤波器与输入特征之间的相似度:

其中 S(·,·) 是一种预定义的相似度度量。如果将互相关用作是距离指标,即 S(x,y)=x×y,那么 (1) 式就是卷积运算。而如果令 d=1, (1) 式就表示全连接层。

为了尽可能地使用加法,该团队使用了 L1 距离,即计算两个点的向量表示的绝对差之和,代替了卷积中的互相关计算,这个过程无需乘法。因此,通过计算 L1 距离,可将 (1) 式改写为(注意减法也算是一种形式的加法):

可以看到,(2) 式加法器滤波器的输出总是为负。为此,研究者使用了批归一化(Batch Normalization)将加法器层的输出归一化到合适的范围内,然后传统 CNN 中使用的所有激活函数便都可用在新提出的 AdderNet 中。

尽管批归一化层会用到乘法,但其计算成本显著低于卷积层的成本,完全可以忽略不计。对于有滤波器 F 的卷积层,如果其输入为 X(其高和宽分别为 H 和 W),输出为 Y(其高和宽分别为 H’ 和 W’),则卷积和批归一化的复杂度分别为 

和 

,可以看到差距非常明显。

因为批归一化层已经在当前前沿的卷积神经网络中得到了广泛的应用,因此只需简单地将 CNN 的卷积层替换为加法器层,就可以直接将它们变为 AdderNet,从而加快推理速度并降低能耗

在提出加法网络的计算方式后,作者进一步对加法网络的通用逼近性能进行了分析,证明了具有单个隐藏层的 AdderNet 可以作为通用函数逼近器。

由于现在的神经网络往往倾向于更深而非更宽,所以作者还证明了宽度有界的加法神经网络也可以作为通用函数逼近器。

此外,作者还提供了一个通用逼近的边界。这些证明结果与卷积神经网络的通用近似结果相媲美。由于理论证明的部分较为复杂,本文不详细介绍对 AdderNet 的通用近似能力的理论证明,详情参阅原论文。

除了给加法网络进行理论保障,研究者还在加法网络的优化策略上提出了改进措施:

•原始 AdderNet 的梯度更新策略为:

•研究者提出了 L2 到 L1 的训练策略,从而利用 L2 范数引导 L1-AdderNet 的训练。而 Lp-AdderNet (1≤P≤2)的形式为:

其梯度更新策略变为:

简单来说:由于直接训练 L1-AdderNet 难度较大,研究者会在训练开始时先训练 L2-AdderNet。而在训练过程中,p 会从 2 线性地变成 1,最终在训练结束时得到 L1-AdderNet。

•研究者还提出了在 AdderNet 中使用自适应学习率调节,使得不同层中的加法器滤波器能在相近的同一步骤更新。

AdderNet 的整体训练过程如下算法 1 所示:

 研究者也通过实验验证了加法器神经网络的有效性

作者首先通过在一系列的构造数据集上验证加法网络的通用逼近特性

可以看到,对于不同构造的数据点分类,两层加法网络和卷积网络在使用多个隐藏节点的时候都可以顺利逼近不同的分布,证明了它们的通用逼近特性。

接下来,作者在实际的图像分类数据集上进行了一系列实验。

在 CIFAR-10 和 CIFAR-100 数据集上的分类结果,其中 #Mul. 为执行的乘法次数,#Add. 为执行的加法次数,XNOR 为执行的「异或非」运算次数

在 ImageNet 数据集上的分类结果

可以看到,在图像分类任务上,AdderNet 的表现与 CNN 相近,且几乎不需要任何乘法计算,在精度上优于二值化神经网络(BNN,不过 BNN 的模型要小得多)。在常用的 ResNet-18 和 ResNet-50 架构上,AdderNet 新版本的精度已经和原始卷积网络十分相似,差距在一个点以内。

研究中提出的各种优化策略也通过控制变量实验得到了验证,结果如下:

AdderNet 中不同训练策略的效果

已经有了理论保证的 AdderNet 能否在移动设备的计算机视觉任务处理上大显神通?让我们拭目以待。

WAIC AI开发者论坛:后深度学习的AI时代

7月8日—10日,AI 开发者论坛将通过三大核心模块:AI开发者论坛WAIC· 开发者黑客松WAIC· 云帆奖展示本年度人工智能领域最前沿的研究方向和技术成果。

7月10日,AI开发者论坛邀请到多位业界大咖带来精彩分享:

  • 阿里巴巴副总裁、达摩院语言技术实验室负责人司罗
  • 上海交通大学特聘教授陈海波
  • 百度研究院量子计算研究所所长段润尧
  • RISC-V 国际开源 (RIOS) 实验室执行主任谭章熹
  • 类脑芯片研究领军人物 Giacomo Indiveri
  • 普林斯顿大学计算机科学系教授Yroam Singer

本次论坛主题涵盖大规模语言智能、SysML(机器学习系统)、多模态机器学习及大规模自动生成技术、RISC-V技术及生态、AI 原生计算机系统、量子人工智能、GPGPU等热门话题,满足 AI 开发者多层次的学习需求。

在精彩的分享外,我们还准备了RTX 3060 显卡、HHKB键盘、Air Tag、人工智能专业书籍、桌搭鼠标垫,现场签到即可参与抽取。

识别下方二维码,立即报名。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-06-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
人脸识别
腾讯云神图·人脸识别(Face Recognition)基于腾讯优图强大的面部分析技术,提供包括人脸检测与分析、比对、搜索、验证、五官定位、活体检测等多种功能,为开发者和企业提供高性能高可用的人脸识别服务。 可应用于在线娱乐、在线身份认证等多种应用场景,充分满足各行业客户的人脸属性识别及用户身份确认等需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档