前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >深度学习之初识深度学习[下]

深度学习之初识深度学习[下]

作者头像
李小白是一只喵
发布于 2020-04-23 07:30:36
发布于 2020-04-23 07:30:36
1K0
举报
文章被收录于专栏:算法微时光算法微时光

注:本文内容摘自书籍<<Python深度学习 >>

深度学习的优势

深度学习从数据中进行学习时有两个基本特征: 第一,通过渐进的、逐层的方式形成越来越复杂的表示; 第二,对中间这些渐进的表示共同进行学习,每一层的变化都需要同时考虑上下两层的需要。

总之,这两个特征使得深度学习比先前的机器学习方法更加成功。

梯度提升机,用于浅层学习问题;深度学习,用于感知问题。

为什么是深度学习,为什么是现在

深度学习用于计算机视觉的两个关键思想,即卷积神经网络和反向传播,在 1989 年就已经为人们所知。

长短期记忆(LSTM,long short-term memory)算法是深度学习处理时间序列的基础,它在 1997 年就被开发出来了,而且此后几乎没有发生变化。那么为什么深度学习在2012 年之后才开始取得成功?这二十年间发生了什么变化?

总的来说,三种技术力量在推动着机器学习的进步: 1. 硬件 2. 数据集和基准 3. 算法上的改进

由于这一领域是靠实验结果而不是理论指导的,所以只有当合适的数据和硬件可用于尝试新想法时(或者将旧想法的规模扩大,事实往往也是如此),才可能出现算法上的改进。

机器学习不是数学或物理学,靠一支笔和一张纸就能实现重大进展。它是一门工程科学。

在 20 世纪 90 年代和 21 世纪前十年,真正的瓶颈在于数据和硬件。但在这段时间内发生了下面这些事情:互联网高速发展,并且针对游戏市场的需求开发出了高性能图形芯片。

硬件

从 1990 年到 2010 年,非定制 CPU 的速度提高了约 5000 倍。因此,现在可以在笔记本电脑上运行小型深度学习模型,但在 25 年前是无法实现的。

但是,对于计算机视觉或语音识别所使用的典型深度学习模型,所需要的计算能力要比笔记本电脑的计算能力高几个数量级。在 20 世纪前十年里,NVIDIA 和 AMD 等公司投资数十亿美元来开发快速的大规模并行芯片(图形处理器,GPU),以便为越来越逼真的视频游戏提供图 形显示支持。

这些芯片是廉价的、单一用途的超级计算机,用于在屏幕上实时渲染复杂的 3D 场景。

这些投资为科学界带来了好处。

2007 年, NVIDIA 推出了 CUDA,作为其 GPU 系列的编程接口。少量 GPU 开始在各种高度并行化的应用中替代大量 CPU 集群,并且最早应用于物理建模。

深度神经网络主要由许多小矩阵乘法组成,它也是高度并行化的。2011 年前后,一些研究人员开始编写神经网络的 CUDA 实现,而 Dan Ciresan a 和 Alex Krizhevsky b 属于第一批人。

这样,游戏市场资助了用于下一代人工智能应用的超级计算。

有时候,大事件都是从游戏开始的。

今天,NVIDIA TITAN X(一款游戏 GPU,在 2015 年底售价 1000 美元)可以实现单精度 6.6 TFLOPS 的峰值,即每秒进行 6.6 万亿次 float32 运算。这比一台现代笔记本电脑的速度要快约 350 倍。

使用一块 TITAN X 显卡,只需几天就可以训练出几年前赢得 ILSVRC 竞赛的 ImageNet 模型。

与此同时,大公司还在包含数百个 GPU 的集群上训练深度学习模型,这种类型的 GPU 是专门针对深度学习的需求开发的,比如 NVIDIA Tesla K80。

如果没有现代 GPU,这种集群的超级计算能力是不可能实现的。

此外,深度学习行业已经开始超越 GPU,开始投资于日益专业化的高效芯片来进行深度学习。

2016 年,Google 在其年度 I/O 大会上展示了张量处理器(TPU)项目,它是一种新的芯片设计,其开发目的完全是为了运行深度神经网络。

据报道,它的速度比最好的 GPU 还要快 10 倍,而且能效更高。

数据集和基准

人工智能有时被称为新的工业革命。 如果深度学习是这场革命的蒸汽机,那么数据就是煤炭,即驱动智能机器的原材料,没有煤炭一切皆不可能。

就数据而言,除了过去 20 年里存储硬件的指数级增长(遵循摩尔定律),最大的变革来自于互联网的兴起,它使得收集与分发用于机器学习的超大型数据集变得可行。

如今,大公司使用的图像数据集、视频数据集和自然语言数据集,如果没有互联网的话根本无法收集。

例如,Flickr 网站上用户生成的图像标签一直是计算机视觉的数据宝库。

YouTube 视频也是一座宝库。维基百科则是自然语言处理的关键数据集。

算法上的改进

除了硬件和数据之外,直到 20 世纪前十年的末期,我们仍没有可靠的方法来训练非常深的神经网络。

因此,神经网络仍然很浅,仅使用一两个表示层,无法超越更为精确的浅层方法,比如 SVM 和随机森林。

关键问题在于通过多层叠加的梯度传播。随着层数的增加,用于训练神 经网络的反馈信号会逐渐消失。

这一情况在 2009—2010 年左右发生了变化,当时出现了几个很简单但很重要的算法改进,可以实现更好的梯度传播。

  1. 更好的神经层激活函数(activation function)。
  2. 更好的权重初始化方案(weight-initialization scheme),一开始使用逐层预训练的方法,不过这种方法很快就被放弃了。
  3. 更好的优化方案(optimization scheme),比如 RMSProp 和 Adam。

只有这些改进可以训练 10 层以上的模型时,深度学习才开始大放异彩。

最后,在 2014 年、2015 年和 2016 年,人们发现了更先进的有助于梯度传播的方法,比如批标准化、残差连接和深度可分离卷积。今天,我们可以从头开始训练上千层的模型。

参考

书籍<<Python深度学习 >>

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Jeff Dean发文回顾:深度学习黄金十年
---- 新智元报道   编辑:LRS 【新智元导读】最近Jeff Dean发表了一篇论文,回顾了深度学习高速发展的黄金十年,软硬件发展是核心,并指出三个未来有潜力的研究方向:稀疏模型、AutoML和多任务训练。 过去十年,由于神经网络借助深度学习重新崛起,人工智能领域研究取得了空前的进展,计算机具有看到、听到并理解世界的能力,AI算法的进步也让其他科学领域的应用取得巨大进步。 谷歌AI的掌门人Jeff Dean最近写了一篇文章,研究了AI迅速发展的原因,包括专门用于加速机器学习硬件的进步和开源软件框
新智元
2022/04/19
4200
Jeff Dean发文回顾:深度学习黄金十年
DNN的隐喻分析:“深度学习”,深在何处
【编者按】DNN现在已经被互联网公司广泛使用,但大众对深度学习的理解水平并不一致。Nuance的这篇文章从另外一个角度来审视DNN技术的演进——分析隐喻如何作为强大的工具来引导我们的思维进入新视野,同时又引诱思维步入新的误区。作者告诫说:不要被“深度学习”的隐喻冲昏头脑。 隐喻在流行文化中和科学界随处可见。“埃尔维斯是摇滚乐之王”就是一个例子。严格说来,摇滚乐界并不是一个王国,但这里借用“王”这个字,我们会脑补出一个王国:那里有各位不同地位的歌手,以及浩浩荡荡的簇拥人群(即他们的粉丝团)。回到“深度学习”这
CSDN技术头条
2018/02/09
7020
DNN的隐喻分析:“深度学习”,深在何处
计算化学的深度学习
人工神经网络的兴衰在计算机科学和计算化学的科学文献中都有详细记载。然而近二十年后,我们现在看到了对深度学习兴趣的复兴,这是一种基于多层神经网络的机器学习算法。在过去的几年里,我们看到了深度学习在许多领域的变革性影响,尤其是在语音识别和计算机视觉领域,在这些领域的大多数专家从业人员现在经常避开之前建立的有利于深度的模型学习模型。在这篇综述中,我们对深层神经网络理论及其独特性质进行了介绍性概述,将它们与化学信息学中使用的传统机器学习算法区分开来。通过概述深度神经网络的各种新兴应用,我们强调它的普遍性和广泛的适用性,以应对该领域的各种挑战,包括定量结构活性关系,虚拟筛选,蛋白质结构预测,量子化学,材料设计和财产预测。在回顾深度神经网络的表现时,我们观察到在不同的研究课题中,针对非神经网络最先进的模型的一致表现优异,而基于深度神经网络的模型通常超出了各自任务的“玻璃天花板”预期。加上用于训练深度神经网络的GPU加速计算的成熟度以及用于训练这些网络的化学数据的指数增长,我们预计深度学习算法将成为计算化学的宝贵工具。
DrugAI
2021/01/29
7650
【现代深度学习技术】现代卷积神经网络01:深度卷积神经网络(AlexNet)
深度学习 (DL, Deep Learning) 特指基于深层神经网络模型和方法的机器学习。它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重要的技术特征是具有自动提取特征的能力。神经网络算法、算力和数据是开展深度学习的三要素。深度学习在计算机视觉、自然语言处理、多模态数据分析、科学探索等领域都取得了很多成果。本专栏介绍基于PyTorch的深度学习算法实现。 【GitCode】专栏资源保存在我的GitCode仓库:https://gitcode.com/Morse_Chen/PyTorch_deep_learning。
Francek Chen
2025/03/13
1930
【现代深度学习技术】现代卷积神经网络01:深度卷积神经网络(AlexNet)
深度学习已成功应用于这三大领域
本文中,我们将介绍如何使用深度学习来解决计算机视觉、语音识别、自然语言处理以及其他商业领域中的应用。首先我们将讨论在许多最重要的AI 应用中所需的大规模神经网络的实现。接着,我们将回顾深度学习已经成功应用的几个特定领域。 尽管深度学习的一个目标是设计能够处理各种任务的算法,然而截至目前深度学习的应用仍然需要一定程度的特化。例如,计算机视觉中的任务对每一个样本都需要处理大量的输入特征(像素),自然语言处理任务的每一个输入特征都需要对大量的可能值(词汇表中的词) 建模。 大规模深度学习 深度学习的基本思想基于
CSDN技术头条
2018/02/13
8210
深度学习已成功应用于这三大领域
万字长文:详解现代AI和深度学习发展史
来源:新智元 本文约9000字,建议阅读10+分钟 本文带你了解人工智能理论起源和深度学习的演变史。 「人工智能」一词,首次在1956年达特茅斯会议上,由约翰麦卡锡等人正式提出。 实用AI地提出,最早可以追溯到1914年。当时Leonardo Torres y Quevedo构建了第一个工作的国际象棋机器终端游戏玩家。当时,国际象棋被认为是一种仅限于智能生物领域的活动。 至于人工智能理论,则可以追溯到1931-34年。当时库尔特·哥德尔(Kurt Gödel )确定了任何类型的基于计算的人工智能的基本限
数据派THU
2023/03/29
1.2K0
万字长文:详解现代AI和深度学习发展史
读书笔记之《人人可懂的深度学习》
这本书名为《人人可懂的深度学习》(Deep Learning),由 约翰·D.凯莱赫(John D. Kelleher)撰写,属于MIT Press Essential Knowledge系列。全书旨在为普通读者提供对深度学习的理解,包括其定义、起源、工作原理、可能性及其在未来十年的发展方向。
AIGC部落
2024/12/09
1420
读书笔记之《人人可懂的深度学习》
开发 | 这六段代码隐藏着深度学习的前世今生!
AI科技评论按:本文作者Emil Wallner用六段代码解释了深度学习的前世今生,这六段代码覆盖了深度学习几十年来的重大创新和突破,作者将所有代码示例都上传了FloydHub 和 GitHub,想要在FloydHub上运行代码示例的读者,请确保已经安装了floyd command line tool,并将作者提供的代码示例拷贝到本地。 如果你是FloydHub新手,可以先阅读作者之前发布的getting started with FloydHub section, 在本地计算机上的示例项目文件夹中安装好C
AI科技评论
2018/03/14
8920
开发 | 这六段代码隐藏着深度学习的前世今生!
【AI初识境】近20年深度学习在图像领域的重要进展节点
这是专栏《AI初识境》的第3篇文章。所谓初识,就是对相关技术有基本了解,掌握了基本的使用方法。
机器视觉CV
2019/10/11
9270
【AI初识境】近20年深度学习在图像领域的重要进展节点
深度学习成长的烦恼
本文为CSDN原创编译文章,禁止转载。 【编者按】深度学习尽管对当前人工智能的发展作用很大,然而深度学习工作者并非一帆风顺。Chris Edwards发表于Communications of the ACM的这篇文章,通过不同的深度学习研究人员的现身说法,列举了深度学习在不同场景下面临的一些挑战以及目前的解决方案。CSDN翻译此文,希望对国内深度学习从业者有借鉴意义。 理论和计算机硬件的进步促使神经网络成为在线服务的核心部分,如微软的Bing,采用神经网络驱动图像搜索和语音识别系统。这些公司提供这样的能力
CSDN技术头条
2018/02/09
5560
深度 | 英伟达深度学习Tensor Core全面解析
AI 科技评论消息,不久前,NVIDIA在SIGGRAPH 2018上正式发布了新一代GPU架构——Turing(图灵),黄仁勋称Turing架构是自2006年CUDA GPU发明以来最大的飞跃。Turing架构的两大重要特性便是集成了用于光线追踪的RT Core以及用于AI计算的Tensor Core,使其成为了全球首款支持实时光线追踪的GPU。
AI科技评论
2018/09/21
4K0
深度 | 英伟达深度学习Tensor Core全面解析
LeCun、Bengio、Hinton三巨头曾合体,Nature发文综述深度学习(论文精华)
大数据文摘作品 编译:张南星、笪洁琼、钱天培 深度学习三巨头Yann LeCun、Yoshua Bengio、Geoffrey Hinton曾在Nature上共同发表一篇名为《深度学习》的综述文章,讲述了深度学习为传统机器学习带来的变革。 从2006年Geoffrey Hinton为世人展示深度学习的潜能算起,深度学习已经蓬勃发展走过了10多个年头。这一路走来,深度学习究竟取得了怎样的成就,又会何去何从呢? 文摘菌节选了这篇论文的精华部分进行编译,对这些问题作出了回答。在公众号后台对话框内回复“三巨头”即可
大数据文摘
2018/05/23
1.6K0
gluon:深度卷积神经网络和AlexNet
本文介绍了如何使用基于卷积神经网络的AlexNet模型进行图像分类,并详细讲解了在Gluon编程环境下实现这一模型的方法。通过对比LeNet和AlexNet在实现上的区别,总结了在图像分类任务中卷积神经网络的一些关键特性。同时,通过在Fashion-MNIST数据集上的实验,展示了卷积神经网络在处理图像分类任务时的性能和鲁棒性。
企鹅号小编
2018/01/03
7900
gluon:深度卷积神经网络和AlexNet
干货|Hinton、LeCun、Bengio三巨头权威科普深度学习
借助深度学习,多处理层组成的计算模型可通过多层抽象来学习数据表征( representations)。这些方法显著推动了语音识别、视觉识别、目标检测以及许多其他领域(比如,药物发现以及基因组学)的技术发展。利用反向传播算法(backpropagation algorithm)来显示机器将会如何根据前一层的表征改变用以计算每层表征的内部参数,深度学习发现了大数据集的复杂结构。深层卷积网络(deep convolutional nets)为图像、视频和音频等数据处理上带来突破性进展,而递归网络(recurrent nets )也给序列数据(诸如文本、语言)的处理带来曙光。
fishexpert
2018/11/21
5350
深度学习轻松学:如何用可视化界面来部署深度学习模型
翻译 | AI科技大本营 参与 | 王赫 上个月,我有幸结识了 DeepCognition.ai 的创始人。 Deep Cognition (深度认知) 建立的深度学习工作室,为很多准备部署深度学习框架和采用人工智能技术的机构打破了诸多难以逾越的障碍。 究竟什么是深度学习? 在我们说明Deep Cognition是如何简化深度学习和人工智能之前,先让我们定义一些深度学习的主要概念。 深度学习,它的核心是用连续"层状"结构来逐级递进的学习有意义的特征表示,其作为机器学习的一个特定的子研究领域,现已成为
企鹅号小编
2018/01/23
2.3K0
深度学习轻松学:如何用可视化界面来部署深度学习模型
深度学习成长的烦恼
理论和计算机硬件的进步促使神经网络成为在线服务的核心部分,如微软的Bing,采用神经网络驱动图像搜索和语音识别系统。这些公司提供这样的能力是希望在未来该技术能驱动更先进的服务,因为他们扩展了神经网络来处理更复杂的问题。 神经网络从50年前的最初设想,到成为信息技术应用的公认部分,花了很长的时间。上世纪90年代,在一阵混乱的兴趣之后,部分支持通过发展高度专业化的集成电路设计来克服传统计算机性能的不足,神经网络在各类算法中脱颖而出,比如在图像处理中的支持向量机以及语音识别中的高斯模型。 旧版简单的神经网络最多
用户1737318
2018/06/05
3120
6段Python代码刻画深度学习历史:从最小二乘法到深度神经网络
【新智元导读】深度学习为什么会成为今天的样子?让我们用六段代码来刻画深度学习简史,用Python展现深度学习历史上关键的节点和核心要素,包括最小二乘法、梯度下降、线性回归、感知器、神经网络和深度神经网
新智元
2018/03/22
1.4K0
6段Python代码刻画深度学习历史:从最小二乘法到深度神经网络
Python 深度学习第二版(GPT 重译)(一)
如果你拿起这本书,你可能已经意识到深度学习在最近对人工智能领域所代表的非凡进步。我们从几乎无法使用的计算机视觉和自然语言处理发展到了在你每天使用的产品中大规模部署的高性能系统。这一突然进步的后果几乎影响到了每一个行业。我们已经将深度学习应用于几乎每个领域的重要问题,跨越了医学影像、农业、自动驾驶、教育、灾害预防和制造等不同领域。
ApacheCN_飞龙
2024/03/21
4520
Python 深度学习第二版(GPT 重译)(一)
深度学习的历史和趋势
引言: 本文是黄文辉同学的第4篇文章,前面三篇分别是: SparkStreaming窗口操作 sqoop数据导入总结 SparkStreaming入门 最近AI领域真的很热,国际国内,大小巨头都投入巨
大数据和云计算技术
2018/03/08
1.8K0
深度学习的历史和趋势
学界丨基准测评当前最先进的 5 大深度学习开源框架
AI 科技评论按:本文转自微信公众号 医AI (med-ai), 来源:arXiv.org,论文作者:Shaohuai Shi, Qiang Wang, Pengfei Xu, Xiaowen Chu,译者:吴博, Elaine, Melody 在 2016 年推出深度学习工具评测的褚晓文团队,赶在猴年最后一天,在 arXiv.org 上发布了最新的评测版本。这份评测的初版,通过国内AI自媒体的传播,在国内业界影响很大。在学术界,其反响更是非同一般。褚晓文教授在1月5日的朋友圈说David Patterso
AI科技评论
2018/03/09
1.2K0
学界丨基准测评当前最先进的 5 大深度学习开源框架
推荐阅读
相关推荐
Jeff Dean发文回顾:深度学习黄金十年
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档