首页
学习
活动
专区
圈层
工具
发布

[神经网络与深度学习] Key concepts on Deep Neural Networks习题解析

这是[神经网络与深度学习]课程第四周的习题,一共10道。

解答:

前向传播过程中计算的结果W和b需要缓存起来,在反向传播中计算导数dW和db需要用到,所以答案是选项2。

解答:

迭代次数、隐藏层的大小,神经网络的层数及学习率是超参数,其它不是,答案是选项1、4、5、6。

解答:

神经网络越深的层,计算的特性越复杂,所以答案为选项1。

解答:

不同层的神经元个数、激活参数都不同,所以各层神经网络的计算需要分别计算,无法通过向量化做到。

解答:

W的shape为(n[l], n[l-1]), b的shape为(n[l], 1),答案是选项4。

解答:

按照惯例,输入层不记入总层数,总共三个隐藏层和一个输入层,所以答案为选项1。

解答:

根据反向传播中计算导数dZ的计算公式:

我们需要知道激活函数是什么,并对其进行求导。答案为True。

解答:

随着神经网络层数的增加,每一层上的神经元可以呈指数减少,只需要比较小型的网络(指神经元数目)。

答案为True。

解答:

只需要牢记W[l].shape=(n[l], n[l-1]), b[l].shape=(n[l], 1), 可以得出答案:

选项1、2、5、8、10、11。

解答:

同样牢记W[l].shape=(n[l], n[l-1]), 答案:选项4

相关习题解析:

  1. [神经网络与深度学习] Introduction to deep learning习题解析
  2. [神经网络与深度学习] Neural Network Basics习题解析
  3. [神经网络与深度学习] Shallow Neural Networks习题解析
下一篇
举报
领券