前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >tf.stop_gradient

tf.stop_gradient

作者头像
狼啸风云
修改2022-09-04 20:57:26
2K0
修改2022-09-04 20:57:26
举报
文章被收录于专栏:计算机视觉理论及其实现

停止梯度计算。当在一个图中执行时,这个op按原样输出它的输入张量。当构建ops来计算梯度时,该op会阻止将其输入的贡献考虑在内。通常情况下,梯度发生器通过递归找出对其计算有贡献的输入,将ops添加到图中,计算指定“损失”的导数。如果将这个op插入到图中,它的输入将被梯度生成器屏蔽。它们没有考虑到计算梯度。当你想用TensorFlow计算一个值,但需要假设该值是常量时,这是非常有用的。一些例子包括:

  • EM算法中m步不应该包含通过e步输出的反向传播。
  • 玻尔兹曼机的对比发散训练,当对能量函数进行微分时,训练不能通过从模型中生成样本的图进行反向传播。
  • 对抗性训练,在对抗性示例生成过程中不应该有任何支持。

参数:

  • input: 一个张量。
  • name: 操作的名称(可选)。

返回值:

  • 一个张量。具有与输入相同的类型。

原链接: https://tensorflow.google.cn/versions/r1.11/api_docs/python/tf/stop_gradient?hl=en

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019年06月17日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档