引言
近年来,随着AI的进步以及在各个领域越发出色的表现,AI逐步吸引了越来越多人的目光。而Alpha Go成长至于围棋领域打遍天下无敌手更是引爆舆论。
很多人担心未来人工智能出现是否对人的生存会产生影响,但我认为目前我们的技术想要制造出智能生命为时尚早,人们不必过于担忧。此外,最近出现的一款游戏《底特律:变人》(Detroit: Become Human)在占据各大视频站的同时也让人们对于未来的发展提供了遐想与警告。
一
我们先来简要的介绍一下深度学习的历史与发展吧!
自人类开始设计可编程计算机时候,就已经在思考如何让机器变得智能,解决更多抽象化的,非绝对固定形式的任务。
1957年康内尔大学教授 Frank Rosenblatt提出的“感知器”模型可谓日后神经网络的鼻祖,也是第一个有自组织、自学习能力的模型。
然而Marvin Minsky 和 Seymour Papert指出两个问题:单层神经网络无法解决亦或问题,同时在当时计算量过大无法投入使用。虽然后来反向传播算法与卷积神经网络的提出使得神经网络稍有起色,但也存在可能止步于局部最优解与过拟合的小问题,当然通过加入噪音、随机森林理论等可以解决这些问题但是最大的局限:计算力却迟迟未得到解决。
直到神奇的Nvida(N卡大法好)开发出了GPU的另一个用处:CUDA(并行计算接口),这才大大提升了计算力。
形象的例子是,1997年的超级计算机IntelASCI Red/9152计算力突破1 TFLOPS (万亿次浮点计算),而2015年的一块Tian X的计算力已经可以达到6.1 TFLOPS了,然而前者价格是百万级别,后者的价格仅仅几千美元。这使得神经网络终于普及开来,成为能够广泛使用的技术了。
占地颇大的IntelASCI Red/9152
只比手略大的TITAN X
二
OK,相信看到这里的你已经对深度学习产生一定的兴趣了,那么我们再来了解一下深度学习吧。
深度学习来源于对人工神经网络的研究,它是机器学习的一个分支,用一个简单的例子来说,我有两组神经元,第一组神经元接收到信息后,用一定的算法将其抽象化,再将简化的信息传入到第二组神经元。第二组神经元用同样或另外的算法再将这个信息简化,就得出一定的结果。
在一个深度网络,可以有很多层神经元(当然用神经元只是作为便于理解的概念)来对上一层的结果进行线性或非线性的转换。
基础的深度学习架构主要有以下三类:生成式深度架构、判别式深度架构、混合式深度架构。
生成式深度架构主要是用来描述具有高阶相关性的可观测数据或者是可见的对象的特征,主要用于模式分析或者是总和的目的,或者是描述这些数据与他们的类别之间的联合分布。
判别式架构主要用于提供模式分类的判别能力,经常用来描述在可见数据条件下物体的后验类别的概率。
混合深度架构主要用于分类,但也与生成架构混合使用。之后详细的描述会在以后的系列中逐步讲解,本文作为引言不过多讲述。
如今,深度学习的应用已经深入到我们生活的方方面面了,举例而言,有图像识别,根据用户上传的图像得出关键字;图像生成,视频伪造等最近见诸报端的事物;已经实装到Google上的语音、翻译的优化等,医疗、金融当然也有涉猎,更别说动作捕捉、音效合成、玩小游戏之类的了。总之,各种花样繁多,适用性广的算法完全可以支持你的脑洞,只有你想不到,不一定有它做不到的。
相信关注深度学习的你也可以在接下来的时间里做出属于自己的作品哦~
假装是隔壁果壳的AI
但是你让我脱单那你就是在为难我AI了
部分资源来自互联网
领取专属 10元无门槛券
私享最新 技术干货