前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >[神经网络与深度学习] Key concepts on Deep Neural Networks习题解析

[神经网络与深度学习] Key concepts on Deep Neural Networks习题解析

作者头像
云水木石
发布2019-07-01 15:26:41
8010
发布2019-07-01 15:26:41
举报

这是[神经网络与深度学习]课程第四周的习题,一共10道。

解答:

前向传播过程中计算的结果W和b需要缓存起来,在反向传播中计算导数dW和db需要用到,所以答案是选项2。

解答:

迭代次数、隐藏层的大小,神经网络的层数及学习率是超参数,其它不是,答案是选项1、4、5、6。

解答:

神经网络越深的层,计算的特性越复杂,所以答案为选项1。

解答:

不同层的神经元个数、激活参数都不同,所以各层神经网络的计算需要分别计算,无法通过向量化做到。

解答:

W的shape为(n[l], n[l-1]), b的shape为(n[l], 1),答案是选项4。

解答:

按照惯例,输入层不记入总层数,总共三个隐藏层和一个输入层,所以答案为选项1。

解答:

根据反向传播中计算导数dZ的计算公式:

我们需要知道激活函数是什么,并对其进行求导。答案为True。

解答:

随着神经网络层数的增加,每一层上的神经元可以呈指数减少,只需要比较小型的网络(指神经元数目)。

答案为True。

解答:

只需要牢记W[l].shape=(n[l], n[l-1]), b[l].shape=(n[l], 1), 可以得出答案:

选项1、2、5、8、10、11。

解答:

同样牢记W[l].shape=(n[l], n[l-1]), 答案:选项4

相关习题解析:

  1. [神经网络与深度学习] Introduction to deep learning习题解析
  2. [神经网络与深度学习] Neural Network Basics习题解析
  3. [神经网络与深度学习] Shallow Neural Networks习题解析
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-06-01,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 云水木石 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档