首页
学习
活动
专区
工具
TVP
发布

进击的Coder

专栏作者
552
文章
1259295
阅读量
199
订阅数
如何改进梯度下降算法
基于梯度下降训练神经网络时,我们将冒网络落入局部极小值的风险,网络在误差平面上停止的位置并非整个平面的最低点。这是因为误差平面不是内凸的,平面可能包含众多不同于全局最小值的局部极小值。此外,尽管在训练数据上,网络可能到达全局最小值,并收敛于所需点,我们无法保证网络所学的概括性有多好。这意味着它们倾向于过拟合训练数据。
崔庆才
2019-09-04
1K0
Google:数据并行对神经网络训练用时的影响
近年来,硬件的不断发展使数据并行计算成为现实,并为加速神经网络训练提供了解决方案。为了开发下一代加速器,最简单的方法是增加标准 minibatch 神经网络训练算法中的 batch size。在这篇论文中,我们的目标是通过实验表征增加 batch size 对训练时间的影响,其中衡量训练时间的是到达目标样本外错误时模型所需的训练步骤数。
崔庆才
2019-05-06
4680
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档