神经网络和深度学习(一) ——深度学习概述

神经网络和深度学习(一)——深度学习概述

(原创内容,转载请注明来源,谢谢)

一、监督学习与神经网络

监督学习可以在一些地方应用,包括房价预测、广告精准定位、图像识别、声音识别、翻译、图像定位等。当需求更复杂时,可以考虑用神经网络来使用,包括标准神经网络(standard neural network)、卷积神经网络(CNN,ConvolutionalNeural Network)、循环神经网络(RNN,Recurrent Neural Networks )、复合神经网络等。

二、各类NN

1、神经网络

神经网络包含输入层、输出层、隐藏层等,通过隐藏层的处理,得到输出的结果。其主要运用到BP算法来调优,即反向传播算法,不断的前向迭代得到结果,再反向传播纠正结果。

2、卷积神经网络

卷积神经网络是在BP神经网络的改进,与BP类似,都采用了前向传播计算输出值,反向传播调整权重和偏置。

CNN与标准的BP最大的不同是:CNN中相邻层之间的神经单元并不是全连接,而是部分连接,也就是某个神经单元的感知区域来自于上层的部分神经单元,而不是像BP那样与所有的神经单元相连接。

CNN的有三个重要的思想架构:局部区域感知;权重共享;空间或时间上的采样。

局部区域感知能够发现数据的一些局部特征,比如图片上的一个角,一段弧,这些基本特征是构成动物视觉的基础;而BP中,所有的像素点是一堆混乱的点,相互之间的关系没有被挖掘。

CNN的另一种图示方式:

3、循环神经网络

RNN是包含循环的网络,允许信息的持久化。循环可以使得信息可以从当前步传递到下一步,RNN可以被看做是同一神经网络的多次赋值,每个神经网络模块会把消息传递给下一个。链式的特征揭示了 RNN 本质上是与序列和列表相关的。他们是对于这类数据的最自然的神经网络架构。

关于RNN,还有更进一步的思想,叫做LSTM(long-shortterm memory)——长短期记忆网络,其是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。

三、深度学习优势

监督学习中,主要处理的数据类型有两种:结构化数据和非结构化数据。

结构化数据,就是类似数据库表的形式,指定一些特征值和一些结果。计算机一直以来都很擅长与处理这类内容。

非结构化数据,例如声音、图像、文字等,这些人类比较擅长识别,但是对于机器来说处理过程比较复杂。

复杂的过程意味着大量复杂的计算,深度学习相比普通的机器学习,有效解决此类问题。

四、深度学习兴起的原因

深度学习,并不是近期才有的概念,但是最近才开始火起来。主要原因有两个方面:一是数据量越来越大,导致原有的算法处理大量数据问题较多;二是大型神经网络的构建,使得有更好的算法来快速处理问题。

但是,对于数据量不大的情况,深度学习未必会比普通的机器学习算法快,反而有可能诸如SVM等算法效果更好。

五、神经网络与RELU

对于机器学习,无论是logistic回归、SVM还是浅层神经网络的BP算法等,很经常提到一个激活函数——sigmoid函数,y=1/(1+e-z),用于控制输出的值在0~1之间。另外还有类似tanh函数,可以控制输出的值在-1~1之间,其性质是一样的。如下图所示:

但是,这两个激活函数有个问题。例如sigmoid,在函数值趋于0或者趋于1时,变换率非常小,则偏导数很小,优化起来速度会非常慢,不利于优化。

深度学习中,大量的神经元,需要大量的这种计算,因此用了一个改进的函数来作为激活函数,称为ReLU(rectified linear union),修正的先行单元,其小于某个值时都是0,大于时会是线性增长,如下图所示:

多层神经网络,则分为输出层、隐藏层1、隐藏层2、输出层等,如下图所示:

六、总结

这是深度学习微专业的第一课,算是一个概述类的课程,对神经网络有个非常初步的了解,后面要开始深入的学习了。

——written by linhxx 2018.01.28

原文发布于微信公众号 - 决胜机器学习(phpthinker)

原文发表时间:2018-01-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏人工智能LeadAI

机器学习必须熟悉的算法之word2vector

word2vector已经成为NLP领域的基石算法。作为一名AI 从业者,如果不能主动去熟悉该算法,应该感到脸红。本文是一篇翻译的文章,原文链接是:http:/...

55315
来自专栏AI深度学习求索

计算机视觉之图像语义分割算法简单介绍

这段时间一直在分享,图像语义分割相关的论文,但是,发现自己都在写论文的算法细节,没有介绍技术背景,今天来通过几个问题简单地介绍一下人工智能算法计算机视觉图像语义...

161
来自专栏IT派

最全的DNN概述论文:详解前馈、卷积和循环神经网络技术

本论文技术性地介绍了三种最常见的神经网络:前馈神经网络、卷积神经网络和循环神经网络。且该文详细介绍了每一种网络的基本构建块,其包括了基本架构、传播方式、连接方式...

3454
来自专栏大数据挖掘DT机器学习

卷积网络循环网络结合-CNN+RNN

1. CNN+RNN ? 相同点 都是传统神经网络的扩展; 前向计算产生结果,反向计算进行模型的更新; 每层神经网络横向可以多个神经元共存,纵向可以有多层神经网...

5516
来自专栏新智元

【一图看懂】机器学习6大算法,优势劣势全解析

【新智元导读】我们将机器学习中最突出、最常用的算法分为三类:线性模型、基于树的模型、神经网络,用一张图表简明地指出了每一类的优势和劣势。 在机器学习中,我们的目...

4129
来自专栏企鹅号快讯

从零学习:从Python和R理解和编码神经网络

作者:SUNIL RAY 编译:Bot 编者按:当你面对一个新概念时,你会怎么学习和实践它?是耗费大量时间学习整个理论,掌握背后的算法、数学、假设、局限再亲身实...

34910
来自专栏机器之心

资源 | 来自独秀同学的深度网络数学笔记,还不快收藏?

如今,我们已经拥有了许多高级的、专业的神经网络程序库和框架,例如:Keras、TensorFlow 或 Pytorch。我们不需要时刻担心权值矩阵的规模,也不需...

622
来自专栏机器之心

入门 | 一文简述循环神经网络

什么是循环神经网络(RNN)?它们如何运行?可以用在哪里呢?本文试图回答上述这些问题,还展示了一个 RNN 实现 demo,你可以根据自己的需要进行扩展。

1003
来自专栏包子铺里聊IT

经典智能算法快速入门之神经网络——技术篇

在上一篇文章里,小编给大家概括地介绍了下神经网络的历史和应用。这次,小编要给大家细细讲解下神经网络的组成,和几种常见神经网络的模型及其适用领域。 基本组成 顾名...

3529
来自专栏机器之心

入门 | 简述迁移学习在深度学习中的应用

3537

扫码关注云+社区