[神经网络与深度学习] Key concepts on Deep Neural Networks习题解析

这是[神经网络与深度学习]课程第四周的习题,一共10道。

解答:

前向传播过程中计算的结果W和b需要缓存起来,在反向传播中计算导数dW和db需要用到,所以答案是选项2。

解答:

迭代次数、隐藏层的大小,神经网络的层数及学习率是超参数,其它不是,答案是选项1、4、5、6。

解答:

神经网络越深的层,计算的特性越复杂,所以答案为选项1。

解答:

不同层的神经元个数、激活参数都不同,所以各层神经网络的计算需要分别计算,无法通过向量化做到。

解答:

W的shape为(n[l], n[l-1]), b的shape为(n[l], 1),答案是选项4。

解答:

按照惯例,输入层不记入总层数,总共三个隐藏层和一个输入层,所以答案为选项1。

解答:

根据反向传播中计算导数dZ的计算公式:

我们需要知道激活函数是什么,并对其进行求导。答案为True。

解答:

随着神经网络层数的增加,每一层上的神经元可以呈指数减少,只需要比较小型的网络(指神经元数目)。

答案为True。

解答:

只需要牢记W[l].shape=(n[l], n[l-1]), b[l].shape=(n[l], 1), 可以得出答案:

选项1、2、5、8、10、11。

解答:

同样牢记W[l].shape=(n[l], n[l-1]), 答案:选项4

相关习题解析:

  1. [神经网络与深度学习] Introduction to deep learning习题解析
  2. [神经网络与深度学习] Neural Network Basics习题解析
  3. [神经网络与深度学习] Shallow Neural Networks习题解析

原文发布于微信公众号 - 云水木石(ourpoeticlife)

原文发表时间:2018-06-01

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

扫码关注云+社区

领取腾讯云代金券