MobileNetV2:下一代边缘计算视觉网络

下一代嵌入式视觉网络

随着在移动设备上运行深度网络可以提升用户体验,而且允许随时随地可以访问,并且在安全性、隐私和能耗方面相对云端计算具有优势,边缘计算的需求越来越大。

2017年谷歌引入了面向嵌入式设备设计的通用型计算机视觉神经网络系列 MobileNetV1,支持分类和检测等功能。随着用户对人工智能交互需求的提高,算法对更高效神经网络的需求也逐渐增加。也是基于算法的发展,出现了新的轻量级视觉网络架构MobileNetV2 ,它将为下一代移动视觉应用提供支持。

MobileNetV2 在 MobileNetV1 的基础上进行了重大改进,并推动了移动视觉识别技术的发展,包括分类、对象检测和语义分割。(MobileNetV2 作为 TensorFlow-Slim 图像分类库的一部分发布,可以在 Colaboratory 中浏览 MobileNetV2。或者下载笔记本并在本地使用 Jupyter 操作。MobileNetV2 还将作为 TF-Hub 中的模块,预训练检查点位于 github 中。)

MobileNetV2 与其它模型的不同

MobileNetV2 以 MobileNetV1 的理念为基础,使用深度可分离卷积作为高效构建块。此外,V2 在架构中引入了两项新功能:

  • Depth-wise convolution之前多了一个1*1的“扩张”层,目的是为了提升通道数,获得更多特征;
  • 最后不采用Relu,而是Linear,目的是防止Relu破坏特征。

此外再看看MobileNetV2的block 与ResNet 的block:

主要不同之处就在于,ResNet是:压缩”→“卷积提特征”→“扩张”,MobileNetV2则是Inverted residuals,即:“扩张”→“卷积提特征”→ “压缩”

MobileNet-V1 最大的特点就是采用depth-wise separable convolution来减少运算量以及参数量,而在网络结构上,没有采用shortcut的方式。 Resnet及Densenet等一系列采用shortcut的网络的成功,表明了shortcut是个非常好的东西,于是MobileNet-V2就将这个好东西拿来用。

拿来主义,最重要的就是要结合自身的特点,MobileNet的特点就是depth-wise separable convolution,但是直接把depth-wise separable convolution应用到 residual block中,会碰到如下问题:

  1. DWConv layer层提取得到的特征受限于输入的通道数,若是采用以往的residual block,先“压缩”,再卷积提特征,那么DWConv layer可提取得特征就太少了,因此一开始不“压缩”,MobileNetV2反其道而行,一开始先“扩张”,本文实验“扩张”倍数为6。 通常residual block里面是 “压缩”→“卷积提特征”→“扩张”,MobileNetV2就变成了 “扩张”→“卷积提特征”→ “压缩”,因此称为 Inverted residuals
  2. 当采用“扩张”→“卷积提特征”→ “压缩”时,在“压缩”之后会碰到一个问题,那就是Relu会破坏特征。为什么这里的Relu会破坏特征呢?这得从Relu的性质说起,Relu对于负的输入,输出全为零;而本来特征就已经被“压缩”,再经过Relu的话,又要“损失”一部分特征,因此这里不采用Relu,实验结果表明这样做是正确的,这就称为 Linear bottlenecks

MobileNetV2 的测试效果

总体而言,MobileNetV2 模型在整体延迟时间范围内可以更快实现相同的准确性。

对于对象检测和分割而言,MobileNetV2 是非常有效的特征提取器。例如,在检测方面,与新引入的 SSDLite 搭配使用时,在实现相同准确性的情况下,新模型的速度要比 MobileNetV1 快大约 35%。

为了实现设备上语义分割,近期宣布的 DeepLabv3 的简化版中采用 MobileNetV2 作为特征提取器。在采用语义分割基准 PASCAL VOC 2012 的条件下,新模型的性能与使用 MobileNetV1 作为特征提取器的性能相似,但前者的参数数量减少 5.3 倍,乘加运算数量减少 5.2 倍。

综上,MobileNetV2 提供了一个非常高效的面向移动设备的模型,可以用作许多视觉识别任务的基础。

【部分截图来源于GDG社区】

原文发布于微信公众号 - 人人都是极客(rrgeek)

原文发表时间:2018-07-22

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏PPV课数据科学社区

人工智能:机器学习 温和指南

? 机器学习是如今人工智能领域中进展最大的方面,更多的初学者开始进入了这个领域。 在这篇文章中,机器学习与NLP专家、Monkey Learn联合创始人&CE...

3566
来自专栏机器之心

深度 | 卷积神经网络十五问:CNN与生物视觉系统的研究探索

和我近期的大多数博文一样,我写这篇文章的起因是近期一个 Twitter 讨论,具体是关于如何将深度卷积神经网络(CNN)的组件与大脑联系起来。但是,这里的大多数...

1100
来自专栏ATYUN订阅号

迁移学习:如何在自然语言处理和计算机视觉中应用?

在这篇文章中,我将讨论两个关于迁移学习的应用:NLP(自然语言处理)和CV(计算机视觉)。并且我会分别在这两个领域提供一个范例。 NLP 现在很多NLP管道都在...

4837
来自专栏人工智能头条

机器学习温和指南

1474
来自专栏鸿的学习笔记

写给开发者的机器学习指南(五)

本节描述了应用机器学习技术时的一些常见缺陷。这个部分的想法是让你意识到这些陷阱,并帮助你不要走进这些坑。

1132
来自专栏数据科学与人工智能

【机器学习】机器学习温和指南

摘要:机器学习与NLP专家、MonkeyLearn联合创始人&CEO Raúl Garreta面向初学者大体概括使用机器学习过程中的重要概念,应用程序和挑战,旨...

2285
来自专栏华章科技

入门级攻略:机器学习 VS. 深度学习

本文以浅显易懂的语言介绍了机器学习和深度学习的定义及应用,以及在源数据要求,硬件支持,特征工程、问题解决方式、执行时间及可解释性等方面的区别,对于新手入门有很大...

1052
来自专栏大数据文摘

学界 | NLP年度盛宴EMNLP/CoNLL 2018最精彩论文精选(摘要+评论)

每年,全球最顶尖的NLP研究者们会在这两个大会上展示最前沿的NLP科研成果。然而,动辄上千篇的论文却令很多关注NLP领域最新动态的小伙伴望而却步。

1372
来自专栏深度学习自然语言处理

学界 | NLP年度盛宴EMNLP/CoNLL 2018最精彩论文精选(摘要+评论)

每年,全球最顶尖的NLP研究者们会在这两个大会上展示最前沿的NLP科研成果。然而,动辄上千篇的论文却令很多关注NLP领域最新动态的小伙伴望而却步。

1302
来自专栏CSDN技术头条

机器学习温和指南

【编者按】机器学习是如今人工智能领域中进展最大的方面,更多的初学者开始进入了这个领域。在这篇文章中,机器学习与NLP专家、MonkeyLearn联合创始人&CE...

2145

扫码关注云+社区

领取腾讯云代金券