请参考一篇好的文章,解释为什么我们在神经网络的最后一层使用Sigmoid激活,在中间层和输入层使用ReLu激活,而在构建卷积神经网络时使用Sigmoid激活?我不知道这是如何得到正确的输出的。
发布于 2017-06-18 06:55:36
Relu解决了梯度消失问题,停止了神经元的失活。在输出层使用Sigmoid,因为它的范围是(0,1),并且可以表示二进制类的概率。在进行多分类时,使用Softmax函数更合适.
也许你需要阅读更多的资料,你可以参考CS231n。谢谢。
https://datascience.stackexchange.com/questions/19836
复制相似问题