最开始接触这个名词的时候,很长一段时间都将它看做一个高深莫测的神奇工具。竟然和大脑神经都有关系的算法,肯定很厉害!
深度学习(DeepLearning)尤其是卷积神经网络(CNN)作为近几年来模式识别中的研究重点,受到人们越来越多的关注,相关的参考文献也是层出不穷,连续几年都占据了CVPR的半壁江山,但是万变不离其宗,那些在深度学习发展过程中起到至关重要的推动作用的经典文献依然值得回味,这里依据时间线索,对CNN发展过程中出现的一些经典文献稍作总结,方便大家在研究CNN时追本溯源,在汲取最新成果的同时不忘经典。
导读: 深度学习(DeepLearning)尤其是卷积神经网络(CNN)作为近几年来模式识别中的研究重点,受到人们越来越多的关注,相关的参考文献也是层出不穷,连续几年都占据了CVPR的半壁江山,但是万变不离其宗,那些在深度学习发展过程中起到至关重要的推动作用的经典文献依然值得回味。这里依据时间线索,对CNN发展过程中出现的一些经典文献稍作总结,方便大家在研究CNN时追本溯源,在汲取最新成果的同时不忘经典。
对于深度学习或机器学习模型而言,我们不仅要求它对训练数据集有很好的拟合(训练误差),同时也希望它可以对未知数据集(测试集)有很好的拟合结果(泛化能力),所产生的测试误差被称为泛化误差。度量泛化能力的好坏,最直观的表现就是模型的过拟合(overfitting)和欠拟合(underfitting)。
这篇文章主要的工作算是机器学习和神经科学的结合工作,需要读者在这两个方向有一定的基础。 另有科普版本,结构更加清晰,不过删减了很多内容。科普版本如下: 用深度学习来解析梦境中出现的物体 - 行为与认知神经科学 (https://zhuanlan.zhihu.com/p/27948255) 机器学习简介:机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。最近大火的深度学习则是机器学习的一个分支,主要用基于人工神经网络的各种方法来实现目的,现在有很多变种,本文中使用的神经网络是一个
监督学习是从标记的训练数据来推断一个功能的机器学习任务。训练数据包括一套训练示例。在监督学习中,每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成。监督学习算法是分析该训练数据,并产生一个推断的功能,其可以用于映射出新的实例。一个最佳的方案将允许该算法来正确地决定那些看不见的实例的类标签。这就要求学习算法是在一种“合理”的方式从一种从训练数据到看不见的情况下形成。
计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取‘信息’的人工智能系统。这里所 指的信息指Shannon定义的,可以用来帮助做一个“决定”的信息。因为感知可以看作是从感官信号中提 取信息,所以计算机视觉也可以看作是研究如何使人工系统从图像或多维数据中“感知”的科学。
本文的主要目的,是简单介绍时下流行的深度学习算法的基础知识,本人也看过许多其他教程,感觉其中大部分讲的还是太过深奥,于是便有了写一篇科普文的想法。博主也是现学现卖,文中如有不当之处,请各位指出,共同进步。
现实生活中常常会有这样的问题:缺乏足够的先验知识,因此难以人工标注类别或进行人工类别标注的成本太高。很自然地,我们希望计算机能代我们完成这些工作,或至少提供一些帮助。根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题,称之为无监督学习。
大数据文摘作品 编译:余志文、Ether、钱天培 “卷积神经网络(CNN)的时代已经过去了!”——Geoffrey Hinton 酝酿许久,深度学习之父Geoffrey Hinton终于在上月发表了备受瞩目的Capsule Networks(CapsNet)。 Hinton本次挟CapsNet而来,大有要用它取代CNN的气势。那么,CapsNet相比CNN到底有哪些优势?它又是否能为AI界带来革命性转折呢?今天,文摘菌就来为大家科普一下这一深度学习的新里程碑。 首先,这位被誉为深度学习之父Geoffrey
最近,专门研究各界专利的博主IPKat发现,一大波DeepMind申请的专利出现了,共有12个。国外各大社交网站都炸了锅。
这本给高中生的人工智能选修教材让许多人惊诧:现在高中生都这么前沿了么?甚至在海外,也有许多网友将其视为中国AI进一步崛起的一个证明。
ILSVRC(ImageNet Large Scale Visual Recognition Challenge)是机器视觉领域最受追捧也是最具权威的学术竞赛之一,代表了图像领域的最高水平。 ImageNet数据集是ILSVRC竞赛使用的是数据集,由斯坦福大学李飞飞教授主导,包含了超过1400万张全尺寸的有标记图片。ILSVRC比赛会每年从ImageNet数据集中抽出部分样本,以2012年为例,比赛的训练集包含1281167张图片,验证集包含50000张图片,测试集为100000张图片。
去年六月发表的一篇博文中我们用可视化的方法解释了神经网络在图形分类中的工作原理。我们意外地收获了一些副产品–由神经网络技术所产生出的奇特而深邃的图像。 DeepDream的开源引起了机器学习和创意编程
原文:Google Research Blog 译者:刘旭坤 去年六月发表的一篇博文中我们用可视化的方法解释了神经网络在图形分类中的工作原理。我们意外地收获了一些副产品–由神经网络技术所产生出的奇特而
以上这些便利的功能,都使用了图像标签。它们背后的AI算法是如何读懂一张图片的呢?图像标签还有哪些应用?希望这篇文章可以回答你的疑问。
然而,这些并非新概念。第一个人工神经网络(ANN)是在 40 年代引入的。那么为什么最近的热点话题都是关于神经网络和深度学习的呢?我们将在 GPU 和机器学习的一系列博客文章中探讨这些概念。
大侠好,欢迎来到FPGA技术江湖,江湖偌大,相见即是缘分。大侠可以关注FPGA技术江湖,在“闯荡江湖”、"行侠仗义"栏里获取其他感兴趣的资源,或者一起煮酒言欢。
深度学习是一种人工神经网络的应用,其应用范围包括自然语言处理、计算机视觉、语音识别等等。其中,卷积神经网络(Convolutional Neural Network,CNN)是一种应用广泛的图像识别模型,其用于解决计算机视觉领域中的图像分类、目标检测、图像分割等问题。本文将详细介绍卷积神经网络的原理、结构和应用。
本文作者 张玉宏 2012年于电子科技大学获计算机专业博士学位,2009~2011年美国西北大学联合培养博士,现执教于河南工业大学,电子科技大学博士后。中国计算机协会(CCF)会员,YOCSEF郑州2018~2019年度副主席,ACM/IEEE会员。《品味大数据》一书作者。 江山代有才人出,各领风骚数百年。但在计算机科学领域,风骚数十年都非常难。卷积神经网络在短短三十多年里,几起几落。别看它现在依然如日冲天,要知道,浪潮之巅的下一步,就是衰落。而加快推动这一趋势的,正是卷积神经网络得以雄起的大功臣——Ge
机器学习方法 1.1 机器学习 通常来说, 机器学习的方法包括: 监督学习 supervised learning:(有数据有标签)在学习过程中,不断的向计算机提供数据和这些数据对应的值,如给出猫、狗的图片并告诉计算机哪些是猫哪些是狗,让计算机去学习分辨 非监督学习 unsupervised learning:(有数据无标签)例给猫和狗的图片,不告诉计算机哪些是猫哪些是狗,而让它自己去判断和分类。不提供数据所对应的标签信息,计算机通过观察数据间特性总结规律 半监督学习 semi-supervised le
卷积神经网络是深度学习中非常重要的一种神经网络模型,目前在图像识别、语音识别和目标检测等领域应用非常广泛。卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络,使用反向传播(Back Propagation,BP)算法进行训练。
哈喽,大家好,今天来让我们了解下什么是卷及神经网络,在这篇文章中,我会介绍什么是卷积神经网络,以及卷积神经网络的基本结构和某些具体的应用。话不多说,马上进入正题。 卷积神经网络是近些年来兴起的一种人工网络结构,因为利用卷积神经网络在图片和语言方面能够给出更优秀的结果,因此呢,这种技术也被广泛的传播和应用。卷积神经网络最常用的部分是计算机图片识别。不过因为他的不断创新和不断地迭代也被广泛的用于了视频分析,自然语言处理,药物发现等等。近期很火的阿尔法狗能让计算机看懂围棋,这也是利用了这门技术。 那现在让我们概
【编者按】在解决视觉、听觉问题方面表现出色的深度学习系统中,分类器和特征模块都是自动学习的,神经网络可解释性问题就成了一个灰色区域,思考这个问题对神经网络效率的保证是有必要的。在这篇博客文章中,机器学习PhD、软件架构师Adnan Masood针对这个问题进行了多方面的反思。 深度学习的成就 在昨天与软件架构师David Lazar关于“how everything old is new again”的讨论中,我们讨论到了关于深度神经网络及其优越效果方面的话题。一个人如果不是与世隔绝5年,那么他一定会发现我
随着科学技术的不断发展,在一些领域之中也慢慢地会出现一些听起来非常高端的专业名词,很多业内人士可能都不太明白该名词的含义,因此外行更是不懂是什么东西了,就比如卷积神经网络。对于很多人来说,听到“卷积神经网络”这个词,应该都会思考这是不是人脑之中的某一神经,也或者是某一种思维导图的名称,但实际上卷积神经网络并不是这个意思。那么卷积神经网络究竟是什么呢?
面向读者:没有或有一定机器学习经验并对 Prisma 之类的 app 背后的原理感兴趣的读者。比较有经验的读者可以直接参照科技树阅读文章末罗列的引用论文。 阅读时间:10-20 分钟 注:多图,请注意
作者:李嘉铭 Northwestern University | CS 量子位 已获授权编辑发布 面向读者:没有或有一定机器学习经验并对Prisma之类的app背后的原理感兴趣的读者。比较有经验的读者
机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。
卷积神经网络之父YannLeCuu在1988年提出卷积神经网络时,将这种网络命名为LeNet。现在的卷积神经网络都是基于类似LeNet的网络构架。下图是一个简单的卷积神经网络的图例。 一个卷积神经网络由一个或多个卷积层(Convolution)+池化层(Pooling),再加上一个全连结的前向神经网络组成。 卷积层Convolution 前面咱们已经知道图像卷积操作的原理了。一个卷积核滑动作用在一个图像上,能得到图像的一个对应的特征地图FeatureMap或者激活地图ActivationMap。之所以称为特
纵观过去两年,“深度学习”领域已经呈现出巨大发展势头。在计算机视觉领域,深度学习已经有了较大进展,其中卷积神经网络是运用最早和最广泛的深度学习模型,所以今天就和大家分享下卷积神经网络的工作原理。
大数据文摘作品 作者:Priya Dwivedi 编译:朝夕、吴双、钱天培 2016年年末,Amazon无人超市横空出世。在这家无人超市,店内的相机能够自动追踪你拿取的商品;完成购物后,你无需排队等候收银,只用直接走出超市。 自此之后,阿里和京东也已相继加入战局,先后推出无人超市体验店。一时间,无人超市的概念已实现了大规模普及。 无人超市的“黑科技”到底是什么呢?今天,文摘菌就为大家科普其中最重要的一环——基于计算机视觉技术的物体识别。 首先,让我们分析一下实现无人超市的两大难点。 难点一:把商品加入购物
------------------------------------分割线----------------------------------
原文:https://theaisummer.com/Deep-Learning-Algorithms/
卷积神经网络最早是主要用来处理图像信息。如果用全连接前馈网络来处理图像时,会存在以下两个问题:
① 深度学习基础 : 大脑对外界事务的认知原理 , 是很多深度学习算法的基础 , 这里讨论人类的视觉原理 ,
开篇的这张图代表ILSVRC历年的Top-5错误率,我会按照以上经典网络出现的时间顺序对他们进行介绍,同时穿插一些其他的经典CNN网络。
【AI科技大本营导读】深度卷积神经网络是这一波 AI 浪潮背后的大功臣。虽然很多人可能都已经听说过这个名词,但是对于这个领域的相关从业者或者科研学者来说,浅显的了解并不足够。近日,约克大学电气工程与计算机科学系的 Isma Hadji 和 Richard P. Wildes 发表了一篇《我们该如何理解卷积神经网络?》的论文:
纵观过去两年,“深度学习”领域已经呈现出巨大发展势头。在计算机视觉领域,深度学习已经有了较大进展,其中卷积神经网络是运用最早和最广泛的深度学习模型,所以今天就和大家分享下卷积神经网络的工作原理。 首先来聊聊什么是深度学习? 什么是深度学习 “Deep learningis abranch of machine learning based on a set of algorithms thatattempt to model highlevel abstractions in databy using a
在 2012 年的 ILSVRC 比赛中 Hinton 的学生 Alex Krizhevsky 使用深度卷积神经网络模型 AlexNet 以显著的优势赢得了比赛,top-5 的错误率降低至了 16.4% ,相比第二名的成绩 26.2% 错误率有了巨大的提升。 AlexNet 再一次吸引了广大研究人员对于卷积神经网络的兴趣,激发了卷积神经网络在研究和工业中更为广泛的应用。现在基于卷积神经网络计算机视觉还广泛的应用于医学图像处理,人脸识别,自动驾驶等领域。越来越多的人开始了解卷积神经网络相关
雷锋网注:卷积神经网络(Convolutional Neural Network)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。 Yann LeCu
深度学习基础理论-CNN篇 卷积神经网络的发展历程 - 01 - 卷积神经网络(Convolutional Neural Networks,简称CNN)是一类特殊的人工神经网络,区别于神经网络其
卷积神经网络(Convolutional Neural Network,CNN)是一种深度神经网络模型,主要用于图像识别、语音识别和自然语言处理等任务。它通过卷积层、池化层和全连接层来实现特征提取和分类。
看懂一个东西对人类来说很容易,但是对机器来说却是很难的,这个时候图像识别技术就应运而生。今天我们就为大家揭秘图像识别技术原理,告诉你机器如何利用卷积神经网络进行图像识别,从而“看见”这个世界。
Yann LeCun,CNN之父,纽约大学终身教授,与Geoffrey Hinton、Yoshua Bengio并成为“深度学习三巨头”。前Facebook人工智能研究院负责人,IJCV、PAMI和IEEE Trans 的审稿人,他创建了ICLR(International Conference on Learning Representations)会议并且跟Yoshua Bengio共同担任主席。
深度卷积神经网络是这一波 AI 浪潮背后的大功臣。虽然很多人可能都已经听说过这个名词,但是对于这个领域的相关从业者或者科研学者来说,浅显的了解并不足够。近日,约克大学电气工程与计算机科学系的 Isma Hadji 和 Richard P. Wildes 发表了一篇《我们该如何理解卷积神经网络?》的论文:
卷积神经网络(Convolutional Neural Networks,CNN)是一种神经网络模型,是深度学习的代表算法之一。它广泛应用于计算机视觉、语音处理等领域,在图像处理,语音识别方面具有非常强大的性能。针对计算机视觉任务,卷积神经网络能够很好的从大量的数据中做到特征的提取,并且降低网络的复杂度。
深度学习是近年来兴起的一种机器学习方法,它通过模拟人脑神经网络的结构和功能,实现对大规模数据进行高效处理和学习。卷积神经网络(Convolutional Neural Networks,简称CNN)是深度学习中最重要和最常用的算法之一,它在图像识别、计算机视觉和自然语言处理等领域取得了巨大的成功。
如图1所示,假设输入到神经网络中的是一张大小为256*256的图像,第一层隐藏层的神经元个数为241*241。在只考虑单通道的情况下,全连接神经网络输入层到第一层隐藏层的连接数为,也就是说输入层到第一层隐藏层有个参数(1为偏置项参数个数)。而在卷积神经网络中,假设我们使用了一个大小为16*16的卷积核,则输入层到第一层隐藏层的连接数为,由于我们的卷积核是共享的,因此参数个数仅为个。有时候为了提取图像中不同的特征,我们可能会使用多个卷积核,假设这里我们使用了100个大小为16*16的卷积核,则输入层到第一层隐藏层的参数个数也仅为,这依然远远少于全连接神经网络的参数个数。
卷积神经网络能够进行卷积运算,从局部输入图块中提取特征,并能够将表示模块化,同时可以高效地利用数据。这些性质让卷积神经网络在计算机视觉领域表现优异,同样也让它对序列处理特别有效。对于某些序列处理问题,这种一维卷积神经网络的效果可以媲美 RNN,而且计算代价通常要小很多,并且,对于文本分类和时间序列预测等简单任务,小型的一维卷积神经网络可以替代 RNN,而且速度更快
深度学习是一种新兴的技术,已经在许多领域中得到广泛的应用,如计算机视觉、自然语言处理、语音识别等。在深度学习中,算法是实现任务的核心,因此深度学习必备算法的学习和理解是非常重要的。
领取专属 10元无门槛券
手把手带您无忧上云