【深度学习】UPN分支介绍—深度信念网络基础原理与架构

图像来源(http://www.cognitivetoday.com/wp-content/uploads/2016/10/DCN-600×392.png)

我之前关于深度学习的文章:

1.深度学习基础(https://codeburst.io/deep-learning-what-why-dd77d432f182) 2.深度学习的自动编码器(https://codeburst.io/deep-learning-types-and-autoencoders-a40ee6754663)

今天我们将了解深度信念网络(DBN)一种无监督预训练的网络(UPN)

让我们先定义DBN:

DBN是一类深层神经网络,其包括有向边和无向边的多层图形模型。它由多层隐藏单元组成,每层都相互连接,但单元之间不连接。

要了解深层信念网络,我们需要了解DBN的两个重点:

1.信念网络

2.受限玻尔兹曼机(RBM)

信念网络:

它由随机二进制单元层组成,其中每个连接层都具有一些权重。信念网络中的随机二进制单位具有0或1两张状态,并且变为1的概率由来自其他单元的偏见和加权输入决定。

让我们来看看这个来自(Geoffrey Hinton,cs.toronto.edu)的深度信念网络图

图片来源:Geoffrey Hinton,cs.toronto.edu

(https://www.cs.toronto.edu/~hinton/nipstutorial/nipstut3.pdf)

GEOFFREY HINTON博士这样说:

深度信念网的两个最重要的属性是:

  • 有一个高效而逐层的过程,用于学习自上而下生成的权重,以确定一个层中的变量如何依赖于上个层中的变量。
  • 学习后,每个层面的潜在变量的值可以通过从底层观察数据向量开始的单个自下而上的传递来推断,并在相反方向上使用生成权重。

受限玻尔兹曼机

波尔兹曼机是一种在单位之间具有随机二进制单位和无向边的随机循环神经网络。由于玻尔兹曼机的范围限制,RBM被引入它由隐藏层单元组成,每个隐藏单元之间有受限的连接。这种结构有助于RBM学习。

看下面了解更多:

图片来源:Geoffrey Hinton,cs.toronto.edu

(https://www.cs.toronto.edu/~hinton/nipstutorial/nipstut3.pdf)

DBN架构:

DBN由受限玻尔兹曼机(RBMs)层组成,为预训练时期,然后是用于微调阶段的前馈网络。如下面的DBN的网络架构所示:

图像来源(https://www.safaribooksonline.com/library/view/deep-learning/9781491924570/assets/dpln_0401.png)

DBN如何工作:

现在我们已经了解了信念网络和RBM的基础知识,让我们尝试了解DBN如何实际运作。由于DBN是多层信念网络。其中每层是受限玻尔兹曼机器彼此堆叠,用于深度信念网络。训练DBN的第一步是使用对比分歧算法(CD算法)从可见单元学习一层特征。然后,下一步是将先前训练过特征的激活视为可见的单元,并学习第二个隐藏层中的特征的特征。最后,整个DBN在实现最终隐藏层的学习时被训练。

贪心DBN学习:

图像来源(https://www.slideshare.net/HasanHTopcu/deep-belief-networks-58155447)

深度信念网络的应用领域:

1.图像和人脸识别

2.视频序列识别

3.运动捕捉数据

NASA(美国国家航空航天局)正在使用DBN来分类TB级的,高分辨率的,高度多样化的卫星图像。

原文发布于微信公众号 - ATYUN订阅号(atyun_com)

原文发表时间:2017-10-07

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏Echo is learning

模型选择评估方法

1043
来自专栏云时之间

深度学习与TensorFlow:FCN论文翻译

这篇论文跟上一篇的VGG论文一样,在深度学习领域同样的经典,在2015年的CVPR,该论文拿到了best paper候选的论文,在之后的PASCAL VOC20...

2552
来自专栏Spark学习技巧

【深度学习】③--神经网络细节与训练注意点

1. 权重的初始化 1.1 fine-tuning 神经网络的训练的有两种方式,第一种是自己从头到尾训练一遍;第二种是使用别人训练好的模型,然后根据自己的实际需...

3595
来自专栏marsggbo

Andrew Ng机器学习课程笔记--week6(精度&召回率)

Advice for applying machine learning 本周主要学习如何提升算法效率,以及如何判断学习算法在什么时候表现的很糟糕和如何deb...

2309
来自专栏机器之心

CVPR2018 | 让AI识别语义空间关系:斯坦福大学李飞飞组提出「参考关系模型」

选自arXiv 作者:Ranjay Krishna 等 机器之心编译 参与:张倩、路雪 图像不仅仅是一组目标集合,同时每个图像还代表一个相互关联的关系网。在本文...

3015
来自专栏YoungGy

无监督学习之RBM和AutoEncoder

几种学习方式 半监督学习 Transfer Learning Self-talk Learning RBM RBM的类别 Boltzmann Machine R...

2317
来自专栏IT派

常见面试之机器学习算法思想简单梳理

导语:今天小编从别的地方推送一篇更广泛的文章供你们学习参考,总结的常见机器学习算法(主要是一些常规分类器)大概流程和主要思想,希望对大家找机器学习岗位时有点帮助...

3497
来自专栏人工智能头条

从FPN到Mask R-CNN,一文告诉你Facebook的计算机视觉有多强

1113
来自专栏杨熹的专栏

神经网络的前世

小长假来听听 NN 的故事吧。 本文参考:这个地址不错,深入浅出讲深度学习的,推荐感兴趣的朋友看一下。 当你听到深度学习,你想到了什么? ? ? ? Deep...

3265
来自专栏机器之心

引爆机器学习圈:「自归一化神经网络」提出新型激活函数SELU

选自arXiv 机器之心编译 参与:蒋思源、Smith、李亚洲 近日,arXiv 上公开的一篇 NIPS 投稿论文《Self-Normalizing Neur...

2526

扫描关注云+社区