首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >tensorflow辍学--更改后需要进行重量归一化以保持1的概率?

tensorflow辍学--更改后需要进行重量归一化以保持1的概率?
EN

Stack Overflow用户
提问于 2017-12-09 08:45:45
回答 1查看 263关注 0票数 1

我想用辍学来提高我的模型的最终预测精度。

据我理解:

1)用降值法将神经元随机分配为零。

2)因此,在下一层中,神经元的值仅依赖于前一层神经元的子集。

3)因此,在训练过程中,训练神经元的重量比应该的强(与退出率成反比),以补偿前一层的“下垂”神经元。

4)训练结束后,当我们想要使用所有的神经元时,我们需要用每一层的神经元乘以(1-辍学率)来补偿。

我说的对吗?如果是这样的话,tf.nn.dropout()是处理这个问题呢,还是我需要手动处理呢?

(预先谢谢:)

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2017-12-09 08:59:29

当你做掉时,随机神经元会被选择在这一层,它们的权重是0。在对模型进行培训时,您将得到两个输出,模型的体系结构和一个由权重组成的h5文件。培训完成后,您可以将这些文件保存在存储中,并可以随时加载以进行预测。你不需要人工增加任何神经元的权重。TF会处理的。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/47726881

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档