首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

激活函数ReLU、Leaky ReLU、PReLU和RReLU

sigmoid和tanh是“饱和激活函数”,而ReLU及其变体则是“非饱和激活函数”。使用“非饱和激活函数”的优势在于两点: 1.首先,“非饱和激活函数”能解决所谓的“梯度消失”问题。 2.其次,它能加快收敛速度。 Sigmoid函数需要一个实值输入压缩至[0,1]的范围 σ(x) = 1 / (1 + exp(−x)) tanh函数需要讲一个实值输入压缩至 [-1, 1]的范围 tanh(x) = 2σ(2x) − 1 ReLU ReLU函数代表的的是“修正线性单元”,它是带有卷积图像的输入x的最大函数(x,o)。ReLU函数将矩阵x内所有负值都设为零,其余的值不变。ReLU函数的计算是在卷积之后进行的,因此它与tanh函数和sigmoid函数一样,同属于“非线性激活函数”。这一内容是由Geoff Hinton首次提出的。

02
您找到你想要的搜索结果了吗?
是的
没有找到

Pytorch的22个激活函数

1.22.Linear常用激活函数 1.22.1.ReLU torch.nn.ReLU() 1.22.2.RReLU torch.nn.RReLU() 1.22.3.LeakyReLU torch.nn.LeakyReLU() 1.22.4.PReLU torch.nn.PReLU() 1.22.5.Sofplus torch.nn.Softplus() 1.22.6.ELU torch.nn.ELU() 1.22.7.CELU torch.nn.CELU() 1.22.8.SELU torch.nn.SELU() 1.22.9.GELU torch.nn.GELU() 1.22.10.ReLU6 torch.nn.ReLU6() 1.22.11.Sigmoid torch.nn.Sigmoid() 1.22.12.Tanh torch.nn.Tanh() 1.22.13.Softsign torch.nn.Softsign() 1.22.14.Hardtanh torch.nn.Hardtanh() 1.22.15.Threshold torch.nn.Threshold() 1.22.16.Tanhshrink torch.nn.Tanhshrink() 1.22.17.Softshrink torch.nn.Softshrink() 1.22.18.Hardshrink torch.nn.Hardshrink() 1.22.19.LogSigmoid torch.nn.LogSigmoid() 1.22.20.Softmin torch.nn.Softmin() 1.22.21.Softmax torch.nn.Softmax() 1.22.22.LogSoftmax torch.nn.LogSoftmax()

01

理解这25个概念,你的人工智能,深度学习,机器学习才算入门!

人工智能,深度学习,机器学习—无论你在做什么,如果你对它不是很了解的话—去学习它。否则的话不用三年你就跟不上时代的潮流了。 ——马克.库班 马克.库班的这个观点可能听起来很极端——但是它所传达的信息是完全正确的! 我们正处于一场革命的旋涡之中——一场由大数据和计算能力引起的革命。 只需要一分钟,我们来想象一下,在20世纪初,如果一个人不了解电力,他/她会觉得如何?你会习惯于以某种特定的方式来做事情,日复一日,年复一年,而你周围的一切事情都在发生变化,一件需要很多人才能完成的事情仅依靠一个人和电力就可以轻松搞

014
领券