这是[神经网络与深度学习]课程第四周的习题,一共10道。
解答:
前向传播过程中计算的结果W和b需要缓存起来,在反向传播中计算导数dW和db需要用到,所以答案是选项2。
解答:
迭代次数、隐藏层的大小,神经网络的层数及学习率是超参数,其它不是,答案是选项1、4、5、6。
解答:
神经网络越深的层,计算的特性越复杂,所以答案为选项1。
解答:
不同层的神经元个数、激活参数都不同,所以各层神经网络的计算需要分别计算,无法通过向量化做到。
解答:
W的shape为(n[l], n[l-1]), b的shape为(n[l], 1),答案是选项4。
解答:
按照惯例,输入层不记入总层数,总共三个隐藏层和一个输入层,所以答案为选项1。
解答:
根据反向传播中计算导数dZ的计算公式:
我们需要知道激活函数是什么,并对其进行求导。答案为True。
解答:
随着神经网络层数的增加,每一层上的神经元可以呈指数减少,只需要比较小型的网络(指神经元数目)。
答案为True。
解答:
只需要牢记W[l].shape=(n[l], n[l-1]), b[l].shape=(n[l], 1), 可以得出答案:
选项1、2、5、8、10、11。
解答:
同样牢记W[l].shape=(n[l], n[l-1]), 答案:选项4
相关习题解析: