首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >在卷积神经网络中何时使用Sigmoid函数和何时使用ReLu

在卷积神经网络中何时使用Sigmoid函数和何时使用ReLu
EN

Data Science用户
提问于 2017-06-18 04:47:17
回答 1查看 4.6K关注 0票数 1

请参考一篇好的文章,解释为什么我们在神经网络的最后一层使用Sigmoid激活,在中间层和输入层使用ReLu激活,而在构建卷积神经网络时使用Sigmoid激活?我不知道这是如何得到正确的输出的。

EN

回答 1

Data Science用户

发布于 2017-06-18 06:55:36

Relu解决了梯度消失问题,停止了神经元的失活。在输出层使用Sigmoid,因为它的范围是(0,1),并且可以表示二进制类的概率。在进行多分类时,使用Softmax函数更合适.

也许你需要阅读更多的资料,你可以参考CS231n。谢谢。

票数 3
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/19836

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档