一种在自动驾驶任务中使用快速递归全卷积神经网络进行直接感知的方法

泡泡图灵智库,带你精读机器人顶级会议文章

标题:Fast Recurrent Fully Convolutional Networks for Direct Perception in Autonomous Driving

作者:Eric (Yiqi) Hou,Sascha Hornauer,Karl Zipser

来源:Arxiv 2017

编译:杨小育

审核:皮燕燕

欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权

摘要

大家好,今天为大家带来的文章是——一种在自动驾驶任务中使用快速递归全卷积神经网络进行直接感知的方法,该文章发表于Arxiv 2017。

许多工作已经证明深度卷积神经网络CNN在各种任务中都有不错的表现,比如在自动驾驶任务中的图像分割任务和目标分类任务。但是,为了完成这些任务所设计的网络通常需要大量的训练数据和较长的训练时间才能收敛。我们提出了三个小型且计算成本低廉的神经网络模型并将其进行比较,以此来研究端到端的无人驾驶方法背后的原理,在这类方法中以图像作为输入,经过网络后直接生成控制信号。与其他的工作相比,我们的模型FCNs使用递归神经网络和参数较少的结构来实现,以此解决复杂的端到端的回归任务,最后生成转向指令和加速度信号。此外,我们针对各层的优化方法进行归类,以允许网络隐式学习图像语义。我们的网络比最新的端到端的方法参数少了3倍,比AlexNet少了500倍,并且在保证鲁棒性的同时可以快速收敛,避免过拟合。

主要贡献

1、证明使用较小的卷积神经网络可以完成端到端的自动驾驶任务

2、提出的模型优于NVIDIA提出的模型

3、证明本文所提出的的网络可以在数据比较稀疏的情况下进行学习

算法流程

本文提出了三个网络模型:

图1 FCN网络

图 2 SqueezeFCN网络

图3 F-RFCN网络

主要结果

作者将文中的三个网络以及NVIDIA的网络进行了比较:

图4 损失函数的收敛性比较

图 5 稀疏采样下的损失函数收敛性比较

实验结果表明F-RFCN的整体性能最优。

Abstract

Deep convolutional neural networks (CNNs) have beenshown to perform extremely well at a variety of tasks includingsubtasks of autonomous driving such as image segmentationand object classification. However, networks designedfor these tasks typically require vast quantities oftraining data and long training periods to converge. Weinvestigate the design rationale behind end-to-end drivingnetwork designs by proposing and comparing three smalland computationally inexpensive deep end-to-end neuralnetwork models that generate driving control signals directlyfrom input images. In contrast to prior work that segmentsthe autonomous driving task, our models take on anovel approach to the autonomous driving problem by utilizingdeep and thin Fully Convolutional Nets (FCNs) withrecurrent neural nets and low parameter counts to tacklea complex end-to-end regression task predicting both steeringand acceleration commands. In addition, we includelayers optimized for classification to allow the networks toimplicitly learn image semantics. We show that the resultingnetworks use 3x fewer parameters than the most recentcomparable end-to-end driving network [2] and 500xfewer parameters than the AlexNet variations and convergeboth faster and to lower losses while maintaining robustnessagainst overfitting.

如果你对本文感兴趣,想要下载完整文章进行阅读,可以关注【泡泡机器人SLAM】公众号

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181117A08R8G00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券