前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >《深度学习Ng》课程学习笔记01week3——浅层神经网络

《深度学习Ng》课程学习笔记01week3——浅层神经网络

作者头像
小爷毛毛_卓寿杰
发布2019-02-13 11:09:22
2630
发布2019-02-13 11:09:22
举报
文章被收录于专栏:Soul Joy HubSoul Joy Hub

http://blog.csdn.net/u011239443/article/details/77884830

3.1 神经网络概览

3.2 神经网络表示

3.3 计算神经网络的输出

对应的正向传播公式:

3.4 多个例子中的向量化

3.5 向量化实现的解释

3.6 激活函数

更多可以参阅《神经网络-激活函数对比

3.7 为什么需要非线性激活函数?

如果没有非线性激活函数,那么神经网络其实就是只是单个神经元的线性组合:

3.8 激活函数的导数

sigmoid

Tanh

ReLU

3.9 神经网络的梯度下降法

更多可见 : http://blog.csdn.net/u011239443/article/details/76680704#t2

3.10 (选修)直观理解反向传播

总结

3.11 随机初始化

初始化W不能设为0,否则同一层的神经元的改变相同,使得类似于单个神经元:

解决方案,随机生成绝对值较小的初始值(初始值绝对值太大,会使得S型激活函数的绝对值趋于0,从而使得训练缓慢):

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017年09月07日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 3.1 神经网络概览
  • 3.2 神经网络表示
  • 3.3 计算神经网络的输出
  • 3.4 多个例子中的向量化
  • 3.5 向量化实现的解释
  • 3.6 激活函数
  • 3.7 为什么需要非线性激活函数?
  • 3.8 激活函数的导数
    • sigmoid
      • Tanh
        • ReLU
        • 3.9 神经网络的梯度下降法
        • 3.10 (选修)直观理解反向传播
        • 3.11 随机初始化
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档