Tensorflow提供了多种激活函数,在CNN中,人们主要是用tf.nn.relu,是因为它虽然会带来一些信息损失,但是性能较为突出.开始设计模型时,推荐使用tf.nn.relu,但高级用户也可创建自己的激活函数...所有负数都会归一化为0,所以的正值保留为原值不变
优点在于不受"梯度消失"的影响,且取值范围在[0,+oo]
缺点在于使用了较大的学习速率时,易受达到饱和的神经元的影响
使用例子
import tensorflow...具体计算公式为
函数的返回值位于区间[0.0 , 1.0]中,当输入值较大时,tf.sigmoid将返回一个接近于1.0的值,而当输入值较小时,返回值将接近于0.0....优点在于对在真实输出位于[0.0,1.0]的样本上训练的神经网络,sigmoid函数可将输出保持在[0.0,1.0]内的能力非常有用....异常:● 输入异常: 如果 keep_prob 不是在(0, 1]区间,那么会提示错误。