首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能浅析

如果说这两年最火爆的科技话题,当然非人工智能莫属。从百度的all in AI,到微软的“We are an AI company”,以及到处都是的AI创业公司。

AI, Artificial Intelligence,翻译成人工智能完全正确,属于标准直译,问题是到底什么是人工智能?为什么这个概念会突然火爆起来?人工智能究竟会怎么样影响我们的日常生活?本文就这几个方面谈谈笔者自己的一些浅见。

人工智能并不是一个非常新鲜的课题,几位现在公认的人工智能奠基人,比如图灵,香农,明斯基等,都出生在大约一百年前,在上世纪4,50年代已经在科技圈崭露头角。现在比较公认的人工智能起始的里程碑是1956年夏天一群年轻学者在达特茅斯学院召开的一次研讨会。120位年轻的学者包括香农,明斯基,西蒙,纽维尔等人,他们后来都是图灵奖获得者,可以说后来都成为了计算机科学领域的泰斗。

这次会议本身没有产生什么了不起的思想,但在会议上首次提出了人工智能这个说法。从广义上来讲,人工智能即泛机器智能,也就是任何可以让计算机通过图灵测试的方法。但实际上五六十年代人工智能的发展非常缓慢,因为当时研究人工智能的方法是,首先了解人类是如何产生智能的,然后让计算机按照人的思路去做。由于种种原因,这个方法并没有取得突破,直到后来人们认识到,机器智能最重要的是能够解决人脑所能解决的问题,而不在于是否需要采用和人一样的方法。

于是从70年代开始,人类尝试了实现人工智能的另一条道路,即采用数据驱动和超级计算的方法,让机器获得智能。这种方法在80年代就在语音识别上获得了成功。简单的说,就是利用大量的输入数据,让语音识别系统的识别率越来越高,最终实现理解人说话的目标。语音识别还不足以震撼整个世界,但它的成功让这个方法论得到了科技和工业界的共同重视。即通过大量数据对系统的训练,让系统不断自我优化。

2012年的谷歌找猫实验可以说是用这种方法给了全世界一个极大的震撼。图像识别比语音识别复杂得多,传统的图像识别方法是,电脑里已经有了目标图像,然后提取目标图像的特征值,再比对待搜素图像的相对应特征值,得出判断结果。显而易见,这种方法很难抓取现实世界中的各种真实图像。因为预存的目标图像不可能和实际图像完全一致,各种变化五花八门,不可能全部提前预估。而谷歌这次实验,他们的图像识别系统可以识别各种猫脸的照片。无论是树林里,还是地毯上,还是很多动物在一起的场景,都可以准确的抓取到猫脸!这并不容易,用传统方法基本上不可能实现,那么谷歌是这么做到的呢?就是人工智能的应用。

人工智能应用于图像识别,分为两个部分,即有监督学习和无监督学习。首先是有监督学习,对识别系统提供大量的猫脸照片,告诉系统猫是长这个样子的。系统通过提取这些猫脸照片的特征,而知道猫到底长什么样子的。你可能会说,这和传统方法不是一个意思吗?别急,系统的学习并不是想象的那么直观。人脑记忆一个物体的形状,可能直接记它是方的还是圆的,长的还是短的,而计算机不这么记。计算机会把图像做傅立叶变换,将图像变成另外一个样子。差异很大的两张图像,经过一次傅立叶变换后的差异,也许只有几个特征值而已。那么只用抓住这几个特征值的差异,就知道这代表的是两张图像的差异。那怎么判断的更加准确呢?多做几次傅立叶变换以及矩阵相乘。几次变换以后,最为关键的特征值就会显现出来,计算机只需要把握住这些关键特征值作为判断依据。显然,你会怀疑数据的正确性,不同图像的关键特征值肯定是不一样的。所以,需要大量的数据对系统进行训练,这是保证系统正确的最基础条件。计算机可以不吃不喝持续接受训练,当计算机已经接受了几百万张,几千万张猫脸图像后,你还会怀疑它提取的特征值没有代表性吗?训练完成后,即有监督学习部分结束。这是可以认为系统已经具备了识别能力。那么下一步无监督学习,实际就是对有监督学习阶段的检验。如果你发现无监督学习阶段,系统的判断结果并不如人意,没有关系,可以用判断失败的图片作为原始数据再进行下一轮有监督学习,系统就能够得到优化。循环往复,系统将越来越优化,最终看上去就如同获得了智能一样。

通过上面这个例子,我们可以看出来为什么人工智能在这几年才开始爆发。它有几个先决条件。

首先,要有足够多的数据,这样才能让系统得到充分的训练。这几年随着移动互联网的发展,可以说各行各业都积累了比以前几十年还要多的数据,这是人工智能发展的基本条件。

其次,要有强大的计算能力,对这些原始数据进行深度学习。刚才提到的傅立叶变换,就是深度学习的基础。多次的傅立叶变换和矩阵相乘,才能够提取更有代表性的特征值。为什么是叫深度学习?而不是复杂学习,精确学习呢?Deep Learning的Deep,指的就是多次傅立叶变换。对一个图像的每个像素做变换,快速的输出结果,现阶段只有GPU(Graphic Process Unit)可以实现。GPU的并行计算架构,天然的符合了人工智能算法的要求,这一点也许黄教主在当年创办英伟达的时候并没有想到:)

最后,人工智能适用于有明确规则的场景。否则,有监督学习的训练部分就很难让计算机理解。没有一个明确的判断标准,就难以检验计算机的学习效果。

对照这几个基本点,相信大家也能够想象得到人工智能的应用场景和适用范围。

为什么谷歌一定要让自己的无人车天天在加州街头转悠?因为它要不断的采集数据。为什么特斯拉根本不屑于和其他车厂比无人驾驶路测成绩?因为它已经在用几十万台已经出厂的汽车在收集数据来优化系统了,而其他传统车厂还在特定的跑道上做测试。

同理,如果你只是开发一个针对封闭仓库物流的无人驾驶系统,你根本没有必要引入人工智能的概念。你的所有场景不会超过一千种,完全可以用预存的方式设计好每种场景的处理方法。反过来,如果你真想开发可以上路的无人汽车,那么人工智能是你的唯一选择,因为实际路况太过复杂,必须让机器自我学习。

为什么Intel要花几百亿收购Altera,因为他不想让GPU吃独食。Intel试图通过FPGA实现人工智能的算法,可惜等了快三年了还没出一款实际商用的芯片。为什么说英伟达最大的竞争对手可能是谷歌?因为TPU被鼓捣出来了,虽然只是在Tensorflow上优化得很好,但这确实是实现人工智能算法的一个新思路。

为什么科学家们对人工智能很担心?因为传统的算法对设计者来说,都是一个白盒。也就是工程师清楚的知道,机器下一步会做什么,逻辑链条非常清晰。而人工智能的机器学习过程,对人类来说实际是一个黑盒。计算机通过大量的数据提取了有用的信息,这个提取的过程并不透明!当然,现阶段人工智能还需要确定的规则才能优化自己,这点人类比其要强得多。比如AlphaGo学习了人类到现在为止所有的棋谱,但如果你让下一个21*21的棋盘,它会傻掉,那不在它的学习范围以内。而人类棋手顶多是下得有点别扭而已,平时该怎么下还是会怎么下。

人工智能很先进,但也没有那么可怕。大量数据驱动加超级计算的方法,在今天一定会越来越主流,而且将会改变各行各业,现在仅仅只是一个开始。从宏观来看,有效数据采集,高效算法优化,将是两个经久不衰的发展路径,希望我们都已在路上。。。。。。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180204G0LRUJ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券