前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >TensorFlow 深度学习笔记 Stochastic Optimization

TensorFlow 深度学习笔记 Stochastic Optimization

作者头像
梦里茶
发布2017-12-29 15:48:57
8090
发布2017-12-29 15:48:57
举报
文章被收录于专栏:梦里茶室

Stochastic Optimization

转载请注明作者:梦里风林 Github工程地址:https://github.com/ahangchen/GDLnotes 欢迎star 官方教程地址 视频/字幕下载

  • 实践中大量机器学习都是通过梯度算子来求优化的
  • 但有一些问题,最大的问题就是,梯度很难计算
  • 我们要计算train loss,这需要基于整个数据集的数据做一个计算
  • 而计算使 train loss 下降最快的调整方向需要的时间是计算train loss本身的三倍
  • 因此有了SGD:Stochastic Gradient Descent
  • 计算train loss时,只随机取一小部分数据集做为输入
  • 调整W和b时,调整的大小step需要比较小,因为数据集小,我们找到的不一定是对的方向
  • 这样也就增加了调整的次数
  • 但可观地减小了计算量

SGD的优化

实际上SGD会使得每次寻找的方向都不是很准,因此有了这些优化

  • 随机的初始值
  • Momentum

考虑以前的平均调整方向来决定每一步的调整方向

  • Learning Rate Decay
  • 训练越靠近目标,步长应该越小
  • Parameter Hyperspace
  • Learning Rate(即调整的step)不是越大越好,可能有瓶颈
  • SGD有许多参数可以调整,所以被称为黑魔法
  • AdaGurad
    • 自动执行momentum和learning rate decay
    • 使得SGD对参数不像原来那样敏感
    • 自动调整效果不如原来的好,但仍然是一个option

觉得得我的文章对您有帮助的话,就给个star吧~

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2016-05-21 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Stochastic Optimization
    • SGD的优化
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档