前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >[改善深度神经网络] Optimization algorithms习题解析

[改善深度神经网络] Optimization algorithms习题解析

作者头像
云水木石
发布2019-07-01 15:30:08
5420
发布2019-07-01 15:30:08
举报

这是[改善深度神经网络]课程第二周的习题,一共10道。

解答:

[l]表示第l层,{l}表示第l个minibatch,(l)表示第l个样本。

答案选项3

解答:

选项1是肯定的,一个mini-batch的数据小于总样本,所以仅就一次迭代而言,mini-batch是快于整批迭代的。

一个epoch的mini-batch梯度递减迭代无法完全向量化所有样本,存在for循环,所以速度慢于整批迭代。

mini-batch梯度递减迭代需要for循环处理不同批次的数据,所以选项3也是错误的。

答案是选项1

解答:

如果mini-batch的大小为m,就是批量梯度递减迭代,而mini-batch的大小为1,就退化为随机梯度递减迭代,无法享受到向量化带来的好处。

答案选项2、4

解答:

mini-batch可能局部存在代价增加的情况,但总体上应该是下降的。批量梯度递减则应该是严格单调下降的。

答案是选项1

解答:

因为没有最开始的数据,所以v2在未校正前无法反映真实数据,小于平均值,校正之后正常,答案是选项3

解答:

选项3的alpha值随着t的增加,不断增加,是错误的方案。

答案选项3

解答:

增加beta值使得曲线更加平滑,同时整个曲线也会右移。

答案是选项2、3

解答:

1的下降曲线波动幅度最大,没有动量加速,增加beta值,下降曲线波动幅度减小,所以答案是选项3

解答:

加快学习速度的方法有:增加学习率、使用Adam优化、mini-batch梯度递减、精心选择的权重初始化值。而将权重值初始化为0或导致权重对称问题,不能采用。

答案是选项1、2、4、5

解答:

Adam优化用于mini-batch梯度递减,而不是批量梯度递减。

所以答案是选项2。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-06-05,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 云水木石 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
批量计算
批量计算(BatchCompute,Batch)是为有大数据计算业务的企业、科研单位等提供高性价比且易用的计算服务。批量计算 Batch 可以根据用户提供的批处理规模,智能地管理作业和调动其所需的最佳资源。有了 Batch 的帮助,您可以将精力集中在如何分析和处理数据结果上。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档