前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >神经网络学习笔记-01-基本概念

神经网络学习笔记-01-基本概念

作者头像
绿巨人
发布2018-05-18 11:01:25
4720
发布2018-05-18 11:01:25
举报
文章被收录于专栏:绿巨人专栏绿巨人专栏

神经网络学习笔记-01-基本概念

基本概念

  • Artificial Neural Network - 基于神经元的计算方向。 一个人工神经网络系统一般包含多个层,每层包含多个神经元(也称为节点)。
  • 第一层是输入层。 基本上没有什么计算功能,主要是将输入数据映射到每个节点上。
  • 中间的层次为隐藏层。 每层都会有一个输出,包含了本层每个节点的输出数据。 每层的输出数据,也是下一层的输入数据。 每层的每个节点会对输入数据分别计算,产生不同的计算结果。
  • 最后一层是输出层。 输出层的每个节点对应一个分类,计算这个分类的概率。最终输出概率最高的分类。

即使百万级的神经单元,也只相当于一只蠕虫的计算能力。

  • Predication Function - 预测函数。 机器学习的结果就是找到这个预测函数。 在分类问题中,就是找到预测函数的权值(w,b)。
  • Activation Function - 激活函数 神经网络中的一个重要概念。原意是模拟大脑神经元是否激活。 在神经网络设计中,其作用是:转换神经元的权值输出值为神经元的输出值。 通俗的理解:权值输出值f(x) = wx + b的结果是x在f(x)上的值,这个不是我们要的分类结果。 激活函数K的作用是将计算y = K(f(x)),将权值输出值转换为分类值。 下面是常用的激活函数:
  • For the hidden layer
    • TanH
    • sigmoid
    • ReLUs
  • For the output layer
    • softmax
  • Forward Propagation - 正向传播 在训练过程中,通过输入数据产生输出数据。
  • Back Propagation - 反向传播 在训练过程中,根据计算结果和期望结果的偏差,重新调整各个神经元的权值。 这个方面有很多算法可以选择。
  • Regularization - 正规化 一种避免多度训练(overfitting)的方法。多度训练会导致训练结果对噪音数据过度敏感。 理论上来说,对当前的预测函数,根据它的复杂度,计算一个惩罚值。通过惩罚值来调整预则函数的权值。
  • Gradient Descent - 梯度下降 反向传播中,用于调整权值的一个概念,表示计算调整的方向和大小。
  • Loss Function - 损失函数 在分类问题中,一种计算方法,计算因不准确预测而导致的代价。

训练过程

  • 初始化 -> (正向传播 -> 反向传播 -> 正规化 -> 梯度下降 -> 重复训练)

人话就是: 初始化: 随便产生个预测函数(w b)。 正向传播:先算一下。 反向传播: 有偏差(废话)。 正规化: 让偏差变得好看点。 梯度下降:把预测函数(w b)向偏差的方向挪一下。 重复训练:把上面的过程来上500遍。

  • 训练图

神经网络示意图

参照

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017-01-23 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 神经网络学习笔记-01-基本概念
    • 基本概念
      • 训练过程
        • 神经网络示意图
          • 参照
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档