前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >谷歌大脑深度学习从入门到精通视频课程[1.2]:前馈神经网络——激活函数

谷歌大脑深度学习从入门到精通视频课程[1.2]:前馈神经网络——激活函数

作者头像
AI科技大本营
发布2018-04-26 10:58:45
5600
发布2018-04-26 10:58:45
举报
视频内容

课程主要内容

  1. 回顾上一节课的内容。(P2)
  2. 神经网络中的四种激活函数的性质。(P3-P6)

PPT 解释如下:

P1. 首页

P2. 回顾上一节课的内容,主要讲解了什么是权重,什么是偏差,什么是激活函数。

P3. 线性激活函数:g(a)= a。它主要有两个特点:(1)没有对输入做任何的处理;(2)效果非常不理想。

P4. sigmoid激活函数:

。它主要有四个特点:(1)将输入数据压缩在0到1之间;(2)输出数据总是正数;(3)输出数据有边界;(4)严格递增。

P5. tanh激活函数:

。它主要有四个特点:(1)将输入数据压缩在-1到1之间;(2)输出数据有正数,也有负数;(3)输出数据有边界;(4)严格递增。

P6. Relu激活函数:

。它主要有四个特点:(1)将输入数据压缩在非负数范围;(2)输出数据没有上边界;(3)在大于零时,输出数据是严格递增;(4)让神经元变成稀疏激活。

课程作业

假设我们的输入数据是 [1.0, 0.0, -1.0],那么依次(线性,sigmoid,tanh,Relu)经过上面的四种激活函数之后,输出的结果是多少?

课程讨论群

我们组织了课程讨论群,请先扫描下面的二维码关注我们的公众号,在交流群一栏中选择 DL课程讨论群,添加课程负责人。然后将课程作业答案发送给他,通过之后,他会邀请你加入讨论。

本文为 AI100 原创,转载需得到本公众号同意。


本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-02-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技大本营 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档