前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >神经网络训练细节part1(下)

神经网络训练细节part1(下)

作者头像
听城
发布2018-08-30 11:13:17
4290
发布2018-08-30 11:13:17
举报
文章被收录于专栏:杂七杂八杂七杂八

权重初始化

  • small random numbers(gaussian with zero mean and 1e-2 standard deviation) w = 0.01*np.random.randn(D,H),0.01是一个系数,可以调整 但是这种方法容易出现梯度弥散的问题(梯度的量级会变得越来越小),更好的一种初始化方式是:w=np.random.randn(fan_in,fan_out)/np.sqrt(fan_in),这种方法仅限于使用tanh激活函数,如果使用relu函数,则可以设置为w=np.random.randn(fan_in,fan_out)/np.sqrt(fan_in/2)

批数据规范化(Batch Normalization)

学习率选择

学习率的选择通过先用少部分数据来进行测试,选择一个较好的学习速率。选择的方式可以为在某个范围内随机取值,观察样本的准确率

总结

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.08.27 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 权重初始化
  • 批数据规范化(Batch Normalization)
  • 学习率选择
  • 总结
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档