前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >激活函数ReLU、Leaky ReLU、PReLU和RReLU

激活函数ReLU、Leaky ReLU、PReLU和RReLU

作者头像
全栈程序员站长
发布2022-07-02 13:35:10
7490
发布2022-07-02 13:35:10
举报

大家好,又见面了,我是你们的朋友全栈君。

“激活函数”能分成两类——“饱和激活函数”和“非饱和激活函数”。

激活函数ReLU、Leaky ReLU、PReLU和RReLU
激活函数ReLU、Leaky ReLU、PReLU和RReLU

sigmoid和tanh是“饱和激活函数”,而ReLU及其变体则是“非饱和激活函数”。使用“非饱和激活函数”的优势在于两点: 1.首先,“非饱和激活函数”能解决所谓的“梯度消失”问题。 2.其次,它能加快收敛速度。 Sigmoid函数需要一个实值输入压缩至[0,1]的范围 σ(x) = 1 / (1 + exp(−x)) tanh函数需要讲一个实值输入压缩至 [-1, 1]的范围 tanh(x) = 2σ(2x) − 1 ReLU ReLU函数代表的的是“修正线性单元”,它是带有卷积图像的输入x的最大函数(x,o)。ReLU函数将矩阵x内所有负值都设为零,其余的值不变。ReLU函数的计算是在卷积之后进行的,因此它与tanh函数和sigmoid函数一样,同属于“非线性激活函数”。这一内容是由Geoff Hinton首次提出的。

ReLU 的缺点: 训练的时候很”脆弱”,很容易就”die”了 例如,一个非常大的梯度流过一个 ReLU 神经元,更新过参数之后,这个神经元再也不会对任何数据有激活现象了,那么这个神经元的梯度就永远都会是 0. 如果 learning rate 很大,那么很有可能网络中的 40% 的神经元都”dead”了。 ELUs ELUs是“指数线性单元”,它试图将激活函数的平均值接近零,从而加快学习的速度。同时,它还能通过正值的标识来避免梯度消失的问题。根据一些研究,ELUs分类精确度是高于ReLUs的。下面是关于ELU细节信息的详细介绍:

激活函数ReLU、Leaky ReLU、PReLU和RReLU
激活函数ReLU、Leaky ReLU、PReLU和RReLU

Leaky ReLUs ReLU是将所有的负值都设为零,相反,Leaky ReLU是给所有负值赋予一个非零斜率。Leaky ReLU激活函数是在声学模型(2013)中首次提出的。以数学的方式我们可以表示为:

激活函数ReLU、Leaky ReLU、PReLU和RReLU
激活函数ReLU、Leaky ReLU、PReLU和RReLU

ai是(1,+∞)区间内的固定参数。

参数化修正线性单元(PReLU) PReLU可以看作是Leaky ReLU的一个变体。在PReLU中,负值部分的斜率是根据数据来定的,而非预先定义的。作者称,在ImageNet分类(2015,Russakovsky等)上,PReLU是超越人类分类水平的关键所在。 随机纠正线性单元(RReLU) “随机纠正线性单元”RReLU也是Leaky ReLU的一个变体。在RReLU中,负值的斜率在训练中是随机的,在之后的测试中就变成了固定的了。RReLU的亮点在于,在训练环节中,aji是从一个均匀的分布U(I,u)中随机抽取的数值。形式上来说,我们能得到以下结果:

激活函数ReLU、Leaky ReLU、PReLU和RReLU
激活函数ReLU、Leaky ReLU、PReLU和RReLU

总结 下图是ReLU、Leaky ReLU、PReLU和RReLU的比较:

激活函数ReLU、Leaky ReLU、PReLU和RReLU
激活函数ReLU、Leaky ReLU、PReLU和RReLU

PReLU中的ai是根据数据变化的;

Leaky ReLU中的ai是固定的;

RReLU中的aji是一个在一个给定的范围内随机抽取的值,这个值在测试环节就会固定下来。

关于激活函数比较优秀的博客

1、https://blog.csdn.net/Leo_Xu06/article/details/53708647

(补充,对于sigmoid函数,权重w越大,曲线越倾斜)

2、https://blog.csdn.net/guorongronghe/article/details/70174476

3、https://blog.csdn.net/weixin_42057852/article/details/84644348

4、https://blog.csdn.net/u011684265/article/details/78039280

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/147876.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • “激活函数”能分成两类——“饱和激活函数”和“非饱和激活函数”。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档