Google的开源人工智能引擎预示着重大硬件变革

2015年11月9日,Google将其人工智能引擎(AI)作为开源项目发布到互联网上,作为最重要的创新项目之一,这显示了计算机软件行业正在发生着的变革。最近,互联网巨头们接二连三地公开自己线上的核心业务软件,这些开源加快了技术发展的进程。随着人工智能引擎TensorFlow的开放,Google能以多种方式为公司外的机器学习研究提供支持,这些研究成果同样也将反馈给Google。

同时Google的人工智能引擎也反映了当今计算机硬件行业的发展趋势。在Google内部,处理诸如图像识别、语音识别和语言翻译等任务时,TensorFlow依赖于GPU以及GPU集群。这些本被用于渲染游戏图像的芯片,也适用于其它工作,而智能引擎对这些芯片的依赖比想象中的更多。据GoogleAI项目工程师称,Google不仅仅只是训练模型,而且正在投入产品服务——将它们植入用户手中的智能电话。

这是一次重大的转变。目前,Facebook庞大的计算机数据中心虽然也用GPU集群训练人脸识别模型,但实际在社交网站上为用户提供人脸识别服务时,还是使用传统的CPU或CPU集群。Facebook首席技术官(CTO)指出,这种基本配置是目前的行业标准。但Google为了追求更高的效率,某些时候既使用GPU来训练AI模型,又使用GPU来执行模型。Google也非独辟蹊径,中国搜索引擎巨头百度也正在搭建一套类似的AI系统。百度首席科学家吴恩达(Andrew Ng)认为这是一次巨大的模式变革。

这一变革对于专注于GPU芯片的美国巨头NVIDIA公司而言是件好事。不生产GPU的Intel公司最近收购了一家专门生产FPGA的公司,因为一些互联网企业和研究所开始关注可编程逻辑阵列(FPGA),将它作为AI领域的GPU替代品。

在全球在线服务业务中,AI扮演着越来越重要的角色,随之而来的备选芯片架构在AI中的地位也水涨船高。目前,在提供线上服务的计算机数据中心里已然如此,可预测的若干年内,同样的现象也将出现在使用相同服务的移动设备上。

在Google、Facebook、微软以及百度等公司,GPU已被证明对“深度学习”非常有效,因为它可以并行处理许多小数据集。深度学习依赖于神经网络,一种模拟人类大脑中神经元的系统,这些网络可以用来快速分析大量数据。举个例子,为了训练神经网络识别一只猫,需要输入无数张猫的图像,而GPU即擅长处理此类任务。另外,它们的能耗也没有CPU那么高。

然而,这些公司在实际使用深度学习技术的手机App应用中,往往是由运行在CPU上的数据系统驱动的。根据百度高性能专家介绍,这是因为GPU只有在持续输入数据的情况下效率才比较高,而通常用来驱动手机App的数据服务器软件并不以这种方式向芯片传输数据。通常情况下,当收到手机App发来的请求后,服务器每次仅处理一个请求,而如果使用GPU并行处理收到的每个请求,则很难保证GPU有足够多的线程能够有效运行。因此GPU从未真正在实际中使用过。换句话说,如果能实现给GPU不断传入数据,那么其效率将比CPU高出许多。百度正在其新的AI平台上做此类尝试。总体而言,就是请求发送到数据中心,然后将多个请求打包传入GPU,使得每次不再只处理一个请求,而是多个请求。

目前还不清楚Google将如何处理这个问题。但是他们表示已经有TensorFlow在执行阶段使用GPU的案例。其发言人证实,基于不同的问题,有时候会把GPU既用于训练模型,又用于识别使用。

这似乎显得微不足道,但事实上却是一项大的改变。驱动这些AI应用产品的系统包括数以千计台的机器,而且这些系统在我们日常生活中的地位日益重要。现在Google的深度学习技术不仅用来识别照片、识别语音、机器翻译,还用来提高搜索质量。其它公司也将同样的技术用于精准广告投放、计算机安全,甚至理解自然语言的应用。即是说,像Google和百度这样的公司都需要极其大量的GPU。

与此同时,人工智能引擎TensorFlow将其中一些AI产品从数据中心移植到了智能手机上。通常,在使用手机端涉及深度学习相关的App时,不回传信息到数据中心是无法运行的。所有的AI都部署在服务器端。例如,在安卓手机上执行一个命令,此命令必须传到Google的数据中心,通过那里的庞大的CPU或GPU网络才能处理。

Google一直在提升自己的AI引擎,使得可以在手机端就自动完成某些任务。公司工程师表示,可以使用一个能在手机端运行的模型描述,而且不需要对模型描述或代码做实质性的改动。

Google的翻译App正是这样搭建的。Google在数据中心训练模型来识别单词和完成翻译,训练完成后App就能独立地运行,而不再需要网络联接。于是把手机对准一块法语路牌,就能立即显示出英语翻译。

这要做好其实很困难,毕竟手机的处理能力有限。随着时间的推进,越来越多的此类任务会被移植到手机端。深度学习软件会改进,移动设备硬件也在发展。有人认为,深度学习的未来是在小巧灵活的移动设备上。

于此呼应的是,GPU正在试图寻找置入手机的方式,硬件制造商也在不断改进CPU的速度和效率。同时,IBM也在开发专为AI任务定制的神经形态芯片,使用过的人觉得它非常适合移动设备。

如今,Google的AI引擎不仅运行在服务器的CPU和GPU上,还运行在常规的智能手机芯片上。而且据Google工程师称,他们开发的TensorFlow引擎能让工程师们轻而易举地迁移到其它硬件平台上。随着该引擎工具的开源,外部人员也可以使用,应该可以移植到更广泛的额外硬件上了。

综上可见,硬件行业也正经历着变革——和软件界一样日新月异。

原文发布于微信公众号 - 人工智能快报(AI_News)

原文发表时间:2015-11-30

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏新智元

2016机器学习三大趋势:算法经济将引导人工智能走向何方

【新智元导读】2016年机器学习有三大趋势。其中,Gartner分析认为,算法将形成一个全球性的交易市场,就像当年的App经济,催生出全新一代的专业技术初创企业...

4007
来自专栏人工智能头条

谷歌工智能开源项目Tensorflow预示着硬件领域的重大变革

1373
来自专栏新智元

教AI“自己构建AI”,谷歌AI编写机器学习程序效率超人类工程师

【新智元导读】最近,thenextweb一篇题为“谷歌的AI写的机器学习代码比创造它的研究人员写的更好”的文章引起讨论,“让AI自己编程”这件事进展到什么程度,...

3316
来自专栏新智元

《第二次机器革命》作者:机器学习将成为全球经济增长最强引擎!

【新智元导读】美国2018年二季度GDP增速达4.1%,为4年来最高水平,但这更多的是临时政策刺激下的结果,可持续性不高。本文认为,AI和机器学习技术的大发展才...

622
来自专栏AI科技评论

吴恩达解读百度大脑:人工智能到底能为我们做些什么?| 百度世界2016

雷锋网2016年9月1日消息,百度世界2016在京举行。大会上百度首席科学家吴恩达解读了百度大脑的四大能力和百度深度学习平台,并且宣布这个月会把百度深度学习平台...

3248
来自专栏CDA数据分析师

李飞飞丨谷歌在 AI 领域的强势举措

? 李飞飞在谷歌 Cloud Next 17上发表主旨演讲。她在会上发布了谷歌云面向机器学习和人工智能的一系列新API 以及收购机器学习竞赛平台 Kaggle...

2077
来自专栏数据科学与人工智能

机器学习的十大使用案例|机器学习

机器学习是当前科技行业的一大流行词,原因很充分:它代表着计算机学习方式的一大跃进。福布斯近日盘点了机器学习技术的十大使用案例。 ? 从根本上说,机器学习算法...

3235
来自专栏人工智能快报

微软发布情绪识别API

2015年11月11日,微软宣布其Oxford项目将开放一个可用于情绪识别的API。微软一位负责技术与研究的人员表示该API可帮助市场营销人员评估顾客对商店展示...

3704
来自专栏BestSDK

【深度】为什么语音输入法SDK,成APP和小程序开发必备

从锤子科技发布会,到乌镇大会搜狗CEO王小川的演讲,语音识别和机器翻译技术成了万众瞩目的焦点。一夜之间,传统的键盘输入法似乎即将被颠覆,语音输入法技术真的有这么...

23610
来自专栏PPV课数据科学社区

【推荐】这才是真正的物流大数据挖掘思路!

物流大数据,都是哪些数据? 物流大数据主要包括运单信息的数据和车辆信息的数据,然而关于运单信息往往涉及商业机密,并且信息分布于不同行业企业内部,不宜公开。因此当...

2784

扫描关注云+社区