前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Tensorflow Batch normalization函数小结

Tensorflow Batch normalization函数小结

作者头像
演化计算与人工智能
发布2020-08-14 11:59:49
7410
发布2020-08-14 11:59:49
举报

参考文献 stackoverflow 上 tensorflow 实现 BN 的不同函数的解释[1]

最近在运行程序时需要使用到 Batch normalization 方法,虽然网上有很多资料,但是说法各异而且没有完全准确的,很多使用了 Tensorflow 中 TF.slim 高层封装,自己不是很明白。现在我将自己搜集的资料进行整理,便于以后查阅。

关于 Batch normalization[2]

Tensorflow 中实现 BN 算法的各种函数

  • 在 tensorflow 中给出了几种实现 batch-norm 的方法:
  • tf.nn.batch_normalization 是一个低级的操作函数,调用者需要自己处理张量的平均值和方差。
  • tf.nn.fused_batch_norm 是另一个低级的操作函数,和前者十分相似。不同之处在于它针对四维输入张量进行了优化,这是卷积神经网络中的常见情况。而前者 tf.nn.batch_normalization 则接受任何等级大于 1 的张量。
  • tf.layers.batch_normalization 是对先前操作的高级包装。最大的不同在于它负责创建和管理运行张量的均值和方差,并尽可能地调用快速融合运算。通常,这个函数应该是你的默认选择。
  • tf.contrib.layers.batch_normbatch norm 的早期实现,其升级的核心 API 版本为(tf.layers.batch_normalization)。不推荐使用它,因为它可能会在未来的版本中丢失。
  • tf.nn.batch_norm_with_global_normalization 是另一个被弃用的操作,现在这个函数会委托给 tf.nn.batch_normalization 执行,在未来这个函数会被放弃。
  • keras.layers.BatchNormalization 是 BN 算法的 Keras 实现,这个函数在后端会调用 Tensorflow 中的 tf.nn.batch_normalization 函数。

参考资料

[1]stackoverflow上tensorflow实现BN的不同函数的解释: https://stackoverflow.com/questions/48001759/what-is-right-batch-normalization-function-in-tensorflow/48006315#48006315

[2]关于Batch normalization: http://blog.csdn.net/u013555719/article/details/78388269

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-05-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 DrawSky 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Tensorflow 中实现 BN 算法的各种函数
    • 参考资料
    相关产品与服务
    批量计算
    批量计算(BatchCompute,Batch)是为有大数据计算业务的企业、科研单位等提供高性价比且易用的计算服务。批量计算 Batch 可以根据用户提供的批处理规模,智能地管理作业和调动其所需的最佳资源。有了 Batch 的帮助,您可以将精力集中在如何分析和处理数据结果上。
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档