这是<<卷积神经网络>>课程第二周的习题,一共10道。
从课程给出的众多卷积神经网络示例上看,卷积通常是减少宽高尺寸,增加通道数,比如:
答案为选项3
同样,经典的卷积神经网络通常是几个卷积层后面带一个池化层,接近输出的地方再加上全连接层,所以选择选项1和3
池化层用于减少宽/高,卷积层填充也有避免图像缩小过快的原因,但问题出在题目中的only,卷积层也可以减少宽/高,并不是总会填充的。 所以答案是False
理论上层数越多,训练误差越小,但实际上却并非如此,从下图可以看出,这也是引入残差网络的原因:
答案选择False
通常在激活函数之前加入前面层的激活层,从如下的课件也可以明显可以看出:
答案是选项3
参考Why do residual networks work?这部分的讲义:
另外增加跳跃连接通常能提高性能,所以第一种说法也是正确的。
答案 1、2
需要注意的是过滤器的channel数目等于前一层的通道数目,所以该1x1过滤器的大小为1x1x16,共16个参数,加上bias后17,所以答案是选项3
1x1过滤器通常用于缩减通道数量,而池化层用于缩减宽高,答案是1和3
Inception块通常组合1x1, 3x3, 5x5卷积和池化层,它们通常是在channel上堆叠。
在3x3、5x5卷积之前加上1x1卷积,通常是用来缩减通道数量,减少参数数量,通常被称作”Bottleneck layer”。
答案是1和3
2的说法在课程中并没有讲到,Inception块并不不是堆叠得越多越好,所以4不正确。
关于为什么选择开源实现,课程中讲的很详细了,值得注意的是选项4,Andrew Ng在课程中特意说到在竞赛中采用的技巧,在实际部署中很少采用,所以不要选。
答案是1和3
相关习题解析: