前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >[卷积神经网络]课程:Deep convolutional models习题解析

[卷积神经网络]课程:Deep convolutional models习题解析

作者头像
云水木石
发布2019-07-01 14:44:48
7690
发布2019-07-01 14:44:48
举报

这是<<卷积神经网络>>课程第二周的习题,一共10道。

从课程给出的众多卷积神经网络示例上看,卷积通常是减少宽高尺寸,增加通道数,比如:

答案为选项3

同样,经典的卷积神经网络通常是几个卷积层后面带一个池化层,接近输出的地方再加上全连接层,所以选择选项1和3

池化层用于减少宽/高,卷积层填充也有避免图像缩小过快的原因,但问题出在题目中的only,卷积层也可以减少宽/高,并不是总会填充的。 所以答案是False

理论上层数越多,训练误差越小,但实际上却并非如此,从下图可以看出,这也是引入残差网络的原因:

答案选择False

通常在激活函数之前加入前面层的激活层,从如下的课件也可以明显可以看出:

答案是选项3

参考Why do residual networks work?这部分的讲义:

另外增加跳跃连接通常能提高性能,所以第一种说法也是正确的。

答案 1、2

需要注意的是过滤器的channel数目等于前一层的通道数目,所以该1x1过滤器的大小为1x1x16,共16个参数,加上bias后17,所以答案是选项3

1x1过滤器通常用于缩减通道数量,而池化层用于缩减宽高,答案是1和3

Inception块通常组合1x1, 3x3, 5x5卷积和池化层,它们通常是在channel上堆叠。

在3x3、5x5卷积之前加上1x1卷积,通常是用来缩减通道数量,减少参数数量,通常被称作”Bottleneck layer”。

答案是1和3

2的说法在课程中并没有讲到,Inception块并不不是堆叠得越多越好,所以4不正确。

关于为什么选择开源实现,课程中讲的很详细了,值得注意的是选项4,Andrew Ng在课程中特意说到在竞赛中采用的技巧,在实际部署中很少采用,所以不要选。

答案是1和3

相关习题解析:

  1. Neural Network Basics习题解析
  2. [卷积神经网络]课程:The basics of ConvNets习题解析
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-05-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 云水木石 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档