首页
学习
活动
专区
工具
TVP
发布

AI科技时讯

专栏成员
290
文章
256518
阅读量
28
订阅数
吴恩达深度学习课程笔记-Classes 4
边缘检测算子中的数字用于进行边缘检测 计算机视觉不一定要去使用那些研究者们所选择的这九个数字,而是将这 9 个数字当成学习参数
用户3578099
2020-04-14
5690
南京大学吴建鑫教授「卷积神经网络CNN」笔记,35页pdf初学者学习指南理解CNN数学原理
【导读】卷积神经网络是深度学习中的基础模型。南京大学吴建鑫教授的「卷积神经网络CNN」笔记,35页pdf初学者学习指南理解CNN数学原理。
用户3578099
2020-03-04
1.5K0
使用拓扑数据分析理解卷积神经网络模型的工作过程
神经网络在各种数据方面处理上已经取得了很大的成功,包括图像、文本、时间序列等。然而,学术界或工业界都面临的一个问题是,不能以任何细节来理解其工作的过程,只能通过实验来检测其效果,而无法做出合理的解释。相关问题是对特定数据集经常存在某种过拟合现象,这会导致对抗行为的可能性。出于这些原因,开发用于发展对神经网络的内部状态的一些理解的方法是非常值得尝试的。由于网络中神经元的数量非常庞大,这成为使得对其进行数据分析显得比较困难,尤其是对于无监督数据分析。 在这篇文章中,将讨论如何使用拓扑数据分析来深入了解卷积神经网络(CNN)的工作过程。本文所举示例完全来自对图像数据集进行训练的网络,但我们确信拓扑建模可以很容易地解释许多其他领域卷积网络的工作过程。 首先,对于神经网络而言,一般是由节点和有向边组成。一些节点被指定为输入节点,其他节点被指定为输出节点,其余节点被指定为内部节点。输入节点是数据集的特征。例如,在处理图像时,输入节点将是特定图像格式的像素。在文本分析时,它又可能是单词。假设给定一个数据集和一个分类问题,比如手写数字MNIST数据集,试图将每个图像分类为数字0到9中的某一个数字。网络的每个节点对应于一个变量值(激活值)。因此,每个数据点为神经网络中的每个内部和输出节点生成值。网络每个节点的值由分配给每个边的权重系统决定。节点节点Z上的值由与之连接的节点A,B,C,D节点的激活函数来确定。
用户3578099
2019-08-16
5920
入门项目数字手写体识别:使用Keras完成CNN模型搭建
对于图像分类任务而言,卷积神经网络(CNN)是目前最优的网络结构,没有之一。在面部识别、自动驾驶、物体检测等领域,CNN被广泛使用,并都取得了最优性能。对于绝大多数深度学习新手而言,数字手写体识别任务可能是第一个上手的项目,网络上也充斥着各种各样的成熟工具箱的相关代码,新手在利用相关工具箱跑一遍程序后就能立刻得到很好的结果,这时候获得的感受只有一个——深度学习真神奇,却没能真正了解整个算法的具体流程。本文将利用Keras和TensorFlow设计一个简单的二维卷积神经网络(CNN)模型,手把手教你用代码完成MNIST数字识别任务,便于理解深度学习的整个流程。
用户3578099
2019-08-16
8360
机器学习研究人员需要了解的8个神经网络架构(上)
在这篇文章中,我想与大家分享8个神经网络体系结构,我相信任何一个机器学习的研究人员都应该熟悉这一过程来促进他们的工作。
用户3578099
2019-08-16
5860
Tensorflow入门1-CNN网络及MNIST例子讲解
人工智能自从阿尔法狗大败李世石后就异常火爆,最近工作中需要探索AI在移动端的应用,趁着这个计划入门下深度学习吧。
用户3578099
2019-08-16
1.2K0
深度学习精要之CapsuleNets理论与实践(附Python代码)
神经网络于上世纪50年代提出,直到最近十年里才得以发展迅速,正改变着我们世界的方方面面。从图像分类到自然语言处理,研究人员正在对不同领域建立深层神经网络模型并取得相关的突破性成果。但是随着深度学习的进一步发展,又面临着新的瓶颈——只对成熟网络模型进行加深加宽操作。直到最近,Hinton老爷子提出了新的概念——胶囊网络(Capsule Networks),它提高了传统方法的有效性和可理解性。
用户3578099
2019-08-16
7110
深度学习领域引用量前20篇论文简介
深度学习是机器学习和统计学交叉领域的一个子集,在过去的几年里得到快速的发展。强大的开源工具以及大数据爆发使其取得令人惊讶的突破进展。本文根据微软学术(academic.microsoft.com)的引用量作为评价指标,从中选取了20篇顶尖论文。注意,引用量会随着时间发生快速的变化,本文参考的是本文发表时候的引用量。
用户3578099
2019-08-16
5890
一份帮助你更好地理解深度学习的资源清单
人工智能和深度学习太火了,火得一塌糊涂,有很多人想从事这个行业。网络上也有很多教程可供大家开始深度学习。如果你完全是一个小白,那么你可以在入行时选择使用极好的斯坦福课程CS221或[CS224](),Fast AI课程或深度学习AI课程。除了深度学习AI之外的课程,其它的课程都可以在家中舒适地免费学习。此外,你只需要一台好的计算机(最好使用Nvidia GPU),就可以正式地迈出深度学习的第一步。 然而,本文内容并没有解决绝对的初学者问题,一旦你对深度学习算法的工作方式有了一些感觉,你可能会想要进一步地了解整个过程是如何运作的。虽然深度学习中的大多数工作是添加像卷积层(Conv2d)这样的层、在ADAM等不同类型的优化策略中更改超参数或者通过编写一行命令来改变使用Batchnorm。深度学习方法一直被人称为是一个“黑匣子”,很多人可能会想知道背后发生的事情。本文是一个资源列表,可能会帮助你了解背后的过程,比方说放置卷积层或在Theano中调用T.grad时发生的过程。
用户3578099
2019-08-15
3990
卷积核3x3 vs 7x7
感受野:原指听觉、视觉等神经系统中一些神经元的特性,即 神经元只接受其所支配的刺激区域内的信号。在视觉神经系统中,视觉皮层中神经细胞的输出依赖于视网膜上的光感受器。当光感受器受刺激兴奋时,会将神经冲动信号传导至视觉皮层。不过需指出并不是所有神经皮层中的神经元都会接受这些信号。正是由于感受野等功能结构在猫的视觉中枢中的发现,催生了福岛邦彦提出多卷积和子采样操作的多层神经网络。
用户3578099
2019-08-15
1.4K0
Keras文本分类实战(下)
在上一节Keras文本分类实战(上),讲述了关于NLP的基本知识。这部分,将学会以不同方式将单词表示为向量。
用户3578099
2019-08-15
1.2K0
Dropout大杀器已过时?视网络模型而定!
人工智能和深度学习很火,对应的职位其薪水和前景都很不错。很多人想转行从事这方面的研究,大部分都是靠自学相关的知识来进行入门和提升。网络上有很多资源可以用来学习深度学习相关的内容。但不幸的是,大多数资源在建立模型时候很少解释为什么这样构造会取得较好的效果,其根本原因在于目前深度学习相关的理论类似于一个黑匣子,暂时无法解释得清楚,只能通过实验来证明。此外,随着相关的深入研究,会出现一些新的发现,进而解释之前无法解释的内容。 深度学习相关的知识更新的特别快,需要时常关注相关的进展。本文将讨论深度学习中的一种常用技术——Dropout,通过阅读此文,你将清楚为什么Dropout在卷积神经网络模型中不再受到欢迎。
用户3578099
2019-08-15
4750
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档