首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >Nesterov的加速梯度下降是如何在Tensorflow中实现的?

Nesterov的加速梯度下降是如何在Tensorflow中实现的?
EN

Stack Overflow用户
提问于 2018-06-09 21:15:55
回答 1查看 4.3K关注 0票数 8

tf.train.MomentumOptimizer的文档提供了一个use_nesterov参数来使用Nesterov的加速梯度(NAG)方法。

但是,NAG要求计算当前变量所在位置以外的位置处的梯度,并且apply_gradients接口只允许传递当前梯度。所以我不太明白NAG算法是如何通过这个接口实现的。

文档描述了关于实现的以下内容:

use_nesterov:如果为真,则使用涅斯特罗夫动量。参见Sutskever et al., 2013。此实现始终在传递给优化器的变量的值处计算梯度。使用内斯特罗夫动量使变量跟踪论文中称为theta_t + mu*v_t的值。

在通读了链接中的论文后,我有点不确定这个描述是否回答了我的问题。当接口不需要提供梯度函数时,如何实现NAG算法?

EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/50774683

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档