前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习中的数学——激活函数(六):Parametric ReLU(PReLU)函数

机器学习中的数学——激活函数(六):Parametric ReLU(PReLU)函数

作者头像
全栈程序员站长
发布2022-06-25 16:07:07
5230
发布2022-06-25 16:07:07
举报
文章被收录于专栏:全栈程序员必看

大家好,又见面了,我是你们的朋友全栈君。

PReLU 也是 ReLU 的改进版本: P R e L U ( x ) = { x , x > 0 α i x , x ≤ 0 PReLU(x)=\left\{ \begin{aligned} x & \quad ,x > 0 \\ \alpha_i x & \quad , x\leq 0\\ \end{aligned} \right. PReLU(x)={ xαi​x​,x>0,x≤0​

PReLU函数中,参数 α \alpha α通常为0到1之间的数字,并且通常相对较小。

  • 如果 α i = 0 \alpha_i=0 αi​=0,则PReLU(x)变为 ReLU。
  • 如果 α i > 0 \alpha_i>0 αi​>0,则PReLU(x)变为Leaky ReLU。
  • 如果 α i \alpha_i αi​是可学习的参数,则PReLU(x)为PReLU函数。

PReLU函数的特点:

  • 在负值域,PReLU的斜率较小,这也可以避免Dead ReLU问题。
  • 与ELU相比,PReLU 在负值域是线性运算。尽管斜率很小,但不会趋于0。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/151180.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档