前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >读书笔记 | 《深度学习入门:基于Python的理论与实现》| (1)

读书笔记 | 《深度学习入门:基于Python的理论与实现》| (1)

作者头像
yiyun
发布2022-04-01 16:05:12
3230
发布2022-04-01 16:05:12
举报
文章被收录于专栏:yiyun 的专栏

感知机

简化,引入激活h(x)

激活函数 h(x):将 输入信号的总和 转换为 输出信号

先计算输入信号的加权总和,然后用激活函数转换这一总和

激活函数

阶跃函数

以阈值为界,一旦输入超过阈值,就切换输出。这样的函数称为“阶跃函数”

感知机 使用 阶跃函数 作为 激活函数

sigmoid函数

神经网络中最常用 激活函数

sigmoid函数 和 阶跃函数 的比较

平滑性

  1. sigmoid 平滑曲线
  2. 阶跃函数 以 0 为 界 发生 急剧性变化
  3. sigmoid函数的平滑性对神经网络的学具有重要意义

可导 TODO:?

返回值

  1. 阶跃函数 仅返 0或1
  2. sigmoid函数 可返 0.731 ...、0.880 ...等实数
  3. 感知机 中神经元 之间流动的是 0或1的 二元信号,而 神经网络 中流动的是 连续的 实数值信号

共同点

  1. 越重要,输出越大; 越不重要,输出越小
  2. 不管输入信号有 多大,多小,输出信号始终在 0 - 1 间

非线性函数

  • 阶跃函数 、sigmoid 函数 均属于 非线性函数
  • 神经网络 的 激活函数 必须使用 非线性函数

Q: 为什么不能使用线性函数呢? A:

  1. 因为使用线性函数的话,加深神经网络的层数就没有意义了
  2. 线性函数的问题在于,不管如何加深层数,总是存在与之等效的“无隐藏层的神经网络”。 举例: 把线性函数 h(x) = cx 作为激活函数,把y(x) = h(h(h(x)))的运算对应3层神经网络 y(x) = c × c × c × x 但是同样的处理可以由 y(x) = ax(注意,a = c^3) 这一次乘法运算(即没有隐藏层的神经网络)来表示

ReLU函数

ReLU(Rectified Linear Unit)函数

三层神经网络的实现

符号的确认

各层间信号传递的实现

从输入层到第1层的第1个神经元的信号传递过程

矩阵表示

参考

感谢帮助!

  • 《深度学入门:基于Python的理论与实现》[日]斋藤康毅 著、 陆宇杰 译

本文作者: yiyun

本文链接: https://moeci.com/posts/分类-读书笔记/DL-start-with-Python-1/

版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021-01-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 复习感知机
    • 简化,引入激活h(x)
    • 激活函数
      • 阶跃函数
        • sigmoid函数
          • sigmoid函数 和 阶跃函数 的比较
            • 平滑性
            • 返回值
            • 共同点
          • 非线性函数
            • ReLU函数
            • 三层神经网络的实现
              • 符号的确认
                • 各层间信号传递的实现
                • 参考
                领券
                问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档