首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

【改善深度神经网络】Hyperparameter tuning,Programming Frameworks习题解

这是[改善深度神经网络]课程第三周的习题,一共10道。

解答:

这个在课程的开始就讲到了,应该随机选取超参数的值。

答案是False

解答:

超参数的重要程度并不相同,比如学习率通常具有较高的重要程度。

所以答案是False

解答:

同时训练多个模型需要更高的算力,否则还是调优一个模型。

答案选项3

解答:

beta的选择最好是非线性,可以排除1和2,选项3如果r=0, beta=-9,如果r=0, beta=0,错误取值。

所以选选项2

解答:

超参数很难一次就选择对,通常是在不断迭代中找到最优。

答案False

解答:

虽然学术上对a[l]还是z[l]正规化还存在争论,但在本课程中推荐z[l]。

答案是选项2

解答:

加入一个很小的epsilon是为了避免除以0。

答案选项1

解答:

beta和r和权重一样,可以通过递归学习而来,而且不同层的beta和r并不同,也不存在一个固定的优化值。

答案为选项2、3

解答:

在测试阶段,没有足够的数据进行批量正规化,应该选取一个预估值,这个预估值通常根据训练阶段的值进行计算。

答案选项4

解答:

采用深度学习框架,可以减少编码量,但并不一定需要云主机来运行。

答案为选项1、2。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180605G1OM6D00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券