前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >神经网络训练细节part1(上)

神经网络训练细节part1(上)

作者头像
听城
发布2018-08-30 11:12:50
2940
发布2018-08-30 11:12:50
举报
文章被收录于专栏:杂七杂八杂七杂八

训练神经网络

神经网络的历史

  • 1960年左右,弗兰克·罗森布拉特设计了感知机
  • 1960年,威德罗和霍夫制造出了适应性神经元,他们将这些感知机整合成了一个多层次的感知机网络
  • 1986年,神经网络再次有了一个突破性进展,论文中第一次用清晰的公式很好的阐述了反向传播概念,提出损失函数,讨论了反向传播、梯度下降等问题。
  • 2006年,第一次建立了神经网络的模型,同时提出了深度学习
  • 2010年,神经网络有了非常大的成果,尤其是在语音合成方面。

激活函数

我们之前提到了激活函数有很多种,下面将着重介绍一下这些函数。

sigmoid

sigmoid有3个问题

  • 在图像的饱和区域,梯度消失
  • sigmoid函数的输出不是关于原点中心对称的
  • 相比其他激活函数,指数运算相对耗时
tanh
  • 区间在[-1,1]
  • 中心对称
  • 梯度消失
relu
  • 激活时,不会产生梯度弥散问题,即梯度不会为0
  • 计算高效
  • 收敛速度快
  • 不是关于原点中心对称
  • 当x小于0时,同样有梯度消失问题
Leaky relu
  • 不会发生梯度消失问题
  • 计算高效
ELU
  • 继承了RELU的所有优点

数据处理

  • 归一化
  • 零中心化
  • PCA
  • 图像常用下面方法

权重初始化

  • small random numbers(gaussian with zero mean and 1e-2 standard deviation) w = 0.01*np.random.randn(D,H)
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.08.26 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 训练神经网络
    • 神经网络的历史
      • 激活函数
        • sigmoid
        • tanh
        • relu
        • Leaky relu
        • ELU
      • 数据处理
        • 权重初始化
        相关产品与服务
        语音合成
        语音合成(Text To Speech,TTS)满足将文本转化成拟人化语音的需求,打通人机交互闭环。提供多场景、多语言的音色选择,支持 SSML 标记语言,支持自定义音量、语速等参数,让发音更专业、更符合场景需求。语音合成广泛适用于智能客服、有声阅读、新闻播报、人机交互等业务场景。
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档