谷歌开源下一代移动端计算机视觉模型:基于AutoML的MobileNetV3和MobileNetEdgeTPU

端上机器学习对于隐私保护、无网环境可用性和智能响应的实现是至关重要的。这需要在设备端使用机器学习算法进行计算,但设备的计算能力有限,这就刺激了算法效率高的神经网络模型和硬件的发展,这些硬件每秒能够执行数十亿次的数学运算,而只会消耗几毫瓦的电量。最近谷歌发布的Pixel 4就例证了这个趋势,它附带了Pixel神经核心这个硬件单元,并采用了Edge TPU架构。这个Edge TPU是谷歌用在边缘计算设备上的机器学习加速器,它提高了Pixel 4的用户体验,例如面部解锁、更快的谷歌助理和独特的摄像头功能。类似地,像MobileNets这样的算法为移动端视觉应用提供了紧致而高效的神经网络模型,这对机器学习在端上的成功应用至关重要。

今天我们很高兴宣布MobileNet3和其对应的由Pixel 4 Edge TPU优化过的MobileNetEdgeTPU模型及代码正式开源。这些模型是硬件感知AutoML技术以及架构设计领域的一些最新进展累积而成的重大成果。在移动端CPU上,MobileNetV3比MobileNetV2快两倍,而精确度相当,这推动了最先进的计算机视觉网络技术的进步。在Pixel 4 Edge TPU硬件加速器上,MobileNetEdgeTPU有了更进一步的提升,在改进了模型精度的同时还降低了运行时间和能耗。

构建MobileNetV3

与之前手动设计的MobileNet模型版本相比,MobileNetV3通过AutoML在搜索空间里寻找最好的架构,这个搜索空间是针对移动端计算机视觉任务而建立的空间。为了最高效地挖掘这个搜索空间,我们相继引入了两种技术——MnasNetNetAdapt。首先,我们使用MnasNet来搜索一个大致的架构,其中使用了强化学习方法从一个离散的选项集合中选择最优配置。然后,我们使用NetAdapt微调这个架构,NetAdapt是一种补充技术,能够以较小的精度衰减来减少未充分利用的激活通道。为了在不同条件下都能提供最好的性能,我们分别生成了较大模型和较小模型。

使用谷歌Pixel 4 CPU,在ImageNet分类任务上对移动端模型精度和延时的比较。

MobileNetV3搜索空间

MobileNetV3的搜索空间建立在最近架构设计领域的多项创新之上,我们将其适配到了移动端环境。首先,我们引入了一个新的激活函数,命名为hard-swish(h-swish),它基于Swish非线性函数。Swish函数的主要缺点是其在移动端硬件上效率非常低。所以,相应地,我们使用了其近似函数,它可以有效地表示为两个分段线性函数之积。

下一步,我们引入了移动端友好的squeeze-and-excitation模块,其使用一个分段线性近似函数替换了经典的sigmoid函数

结合h-swish和移动端友好的squeeze-and-excitation(修改了MobileNetV2中引入的inverted bottleneck结构,我们为MobileNetV3构建了一个新的模块单元。

MobileNetV3扩展了MobileNetV2的inverted bottleneck结构,增加了h-swish和移动端友好的squeeze-and-excitation模块作为搜索选项。

以下参数定义了用来构建MobileNetV3的搜索空间:

  • expansion层的大小
  • squeeze-excite压缩的程度
  • 激活函数选取:h-swish或者ReLU
  • 每种分辨率模块的层数

我们还在网络末端引入了一个高效的模块,这将延时进一步减少了15%。

MobileNetV3物体检测和语义分割

除了分类模型以外,我们还介绍了MobileNetV3的物体检测模型,在COCO数据集上,其相比于MobileNetV2减少了25%的延时,而精度维持在同样水平。

为了优化MobileNetV3来实现高效的语义分割,我们引入了具有低延时的分割解码器,命名为Lite Reduced Atrous Spatial Pyramid Pooling(LR-SPP)。这个新的解码器网络包含三个分支,一个用于低精度的语义特征,一个用于高精度细节特征,最后一个用于轻权重的注意力模型。在高精度Cityscapes数据集上,LR-SPP和MobileNetV3的结合使延时降低了35%以上。

MobileNet for Edge TPUs

Pixel 4上的Edge TPU架构和Coral产品线上的Edge TPU很像,但是其为了满足Pixel 4上摄像机关键特性的要求而进行了定制化。加速器感知的AutoML方法大大减少了为硬件加速器设计和优化神经网络的手动操作。设计神经架构搜索空间是这个方法的重要部分,其围绕着如何选取神经网络操作来改进硬件利用率。尽管像squeeze-and-excite和非线性swish这样的操作在构建紧致而快速的CPU模型方面被认为是至关重要的,但是在Edge TPU上的表现并非最优,因此,我们将其排除在搜索空间之外。MobileNetV3的最小化变种也放弃了这些操作的使用(例如squeeze-and-excitation、swish和5x5卷积),这样可以使模型更容易地移植到其他一些硬件加速器上,例如DSPGPU

神经网络架构搜索基于同时优化模型精确度和Edge TPU延时的动机,其生成的MobileNetEdgeTPU模型在固定某个精度时达到了更低的延时(或者在固定的延时条件下达到了更高的精确度,这是和之前像MobileNetV2和最小化的MobileNetV3模型相比的)。和EfficientNet-EdgeTPU模型(在Coral中为Edge TPU优化过的模型)相比,这些模型在Pixel 4上运行时的延时低得多,尽管代价是在精度上有点损失。

尽管减少模型的能耗并不是搜索目标的一部分,MobileNetEdgeTPU模型的低延时还是帮助减少了Edge TPU的平均能耗。MobileNetEdgeTPU模型在同样精确度情况下,只需要消耗最小化的MobileNetV3模型一半不到的能量。

左侧:Pixel4 Edge TPU上运行MobileNetEdgeTPU网络和其他移动端图像分类网络的精度对比情况,运行任务为ImageNet分类任务。MobileNetEdgeTPU相比于其他模型实现了更高的精度和更低的延时。右侧:在每秒运行30帧(FPS)的情况下,不同分类模型在Edge TPU上的平均能耗(单位:瓦特)。

使用MobileNetEdgeTPU做物体检测

MobileNetEdgeTPU分类模型还可以作为物体检测任务的高效特征提取器。和基于MobileNetV2的物体检测模型相比,MobileNetEdgeTPU模型在模型质量方面有了重大改进(用mean average precisin指标来衡量,即mAP),这是在Edge TPU上运行了足够多的COCO 14 minival数据集的结果。MobileNetEdgeTPU检测模型延时为6.6ms,mAP分数达到了24.3,而基于MobileNetV2的检测模型mAP只有22,每次推理延时为6.8ms。

硬件感知模型的必要性

以上结果凸显了MobileNetEdgeTPU模型在能耗、性能和质量方面带来的好处,值得注意的是,这些模型通过在Edge TPU加速器上运行而得到了定制化,这才有了这些方面的改进。MobileNetEdgeTPU如果直接跑在移动端CPU上,其性能不如移动端CPU特意调过后的模型版本(如MobileNetV3)。MobileNetEdgeTPU模型执行的操作数量远超之前的模型版本,所以,它们在移动端CPU上运行的更慢也就不足为怪了,其在模型算力需求和运行时间之间展现出了更多的线性关系。

在使用移动端CPU时,MobileNetV3仍然是部署到目标机器上性能表现最好的网络。

写给研究人员和开发人员

MobileNetV3和MobileNetEdgeTPU代码,以及ImageNet分类任务对应的浮点和量化模型,可以在MobileNet的github页面下载:

https://github.com/tensorflow/models/tree/master/research/slim/nets/mobilenet

MobileNetV3和MobileNetEdgeTPU物体检测模型的开源实现可以在Tensorflow物体检测API页面获取:

https://github.com/tensorflow/models/tree/master/research/object_detection

MobileNetV3语义分割的开源实现可以在Tensorflow代码库中的DeepLab获取:

https://github.com/tensorflow/models/tree/master/research/deeplab

致谢

这个工作是谷歌多个团队合作的成果。我们要感谢以下人员:Berkin Akin, Okan Arikan, Gabriel Bender, Bo Chen, Liang-Chieh Chen, Grace Chu, Eddy Hsu, John Joseph, Pieter-jan Kindermans, Quoc Le, Owen Lin, Hanxiao Liu, Yun Long, Ravi Narayanaswami, Ruoming Pang, Mark Sandler, Mingxing Tan, Vijay Vasudevan, Weijun Wang, Dong Hyuk Woo, Dmitry Kalenichenko, Yunyang Xiong, Yukun Zhu and support from Hartwig Adam, Blaise Agüera y Arcas, Chidu Krishnan和Steve Molloy。

原文链接:

https://ai.googleblog.com/2019/11/introducing-next-generation-on-device.html

  • 发表于:
  • 本文为 InfoQ 中文站特供稿件
  • 首发地址https://www.infoq.cn/article/hJrpveTTROF4YafNHWtD
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券