Google的开源人工智能引擎预示着重大硬件变革

2015年11月9日,Google将其人工智能引擎(AI)作为开源项目发布到互联网上,作为最重要的创新项目之一,这显示了计算机软件行业正在发生着的变革。最近,互联网巨头们接二连三地公开自己线上的核心业务软件,这些开源加快了技术发展的进程。随着人工智能引擎TensorFlow的开放,Google能以多种方式为公司外的机器学习研究提供支持,这些研究成果同样也将反馈给Google。

同时Google的人工智能引擎也反映了当今计算机硬件行业的发展趋势。在Google内部,处理诸如图像识别、语音识别和语言翻译等任务时,TensorFlow依赖于GPU以及GPU集群。这些本被用于渲染游戏图像的芯片,也适用于其它工作,而智能引擎对这些芯片的依赖比想象中的更多。据GoogleAI项目工程师称,Google不仅仅只是训练模型,而且正在投入产品服务——将它们植入用户手中的智能电话。

这是一次重大的转变。目前,Facebook庞大的计算机数据中心虽然也用GPU集群训练人脸识别模型,但实际在社交网站上为用户提供人脸识别服务时,还是使用传统的CPU或CPU集群。Facebook首席技术官(CTO)指出,这种基本配置是目前的行业标准。但Google为了追求更高的效率,某些时候既使用GPU来训练AI模型,又使用GPU来执行模型。Google也非独辟蹊径,中国搜索引擎巨头百度也正在搭建一套类似的AI系统。百度首席科学家吴恩达(Andrew Ng)认为这是一次巨大的模式变革。

这一变革对于专注于GPU芯片的美国巨头NVIDIA公司而言是件好事。不生产GPU的Intel公司最近收购了一家专门生产FPGA的公司,因为一些互联网企业和研究所开始关注可编程逻辑阵列(FPGA),将它作为AI领域的GPU替代品。

在全球在线服务业务中,AI扮演着越来越重要的角色,随之而来的备选芯片架构在AI中的地位也水涨船高。目前,在提供线上服务的计算机数据中心里已然如此,可预测的若干年内,同样的现象也将出现在使用相同服务的移动设备上。

在Google、Facebook、微软以及百度等公司,GPU已被证明对“深度学习”非常有效,因为它可以并行处理许多小数据集。深度学习依赖于神经网络,一种模拟人类大脑中神经元的系统,这些网络可以用来快速分析大量数据。举个例子,为了训练神经网络识别一只猫,需要输入无数张猫的图像,而GPU即擅长处理此类任务。另外,它们的能耗也没有CPU那么高。

然而,这些公司在实际使用深度学习技术的手机App应用中,往往是由运行在CPU上的数据系统驱动的。根据百度高性能专家介绍,这是因为GPU只有在持续输入数据的情况下效率才比较高,而通常用来驱动手机App的数据服务器软件并不以这种方式向芯片传输数据。通常情况下,当收到手机App发来的请求后,服务器每次仅处理一个请求,而如果使用GPU并行处理收到的每个请求,则很难保证GPU有足够多的线程能够有效运行。因此GPU从未真正在实际中使用过。换句话说,如果能实现给GPU不断传入数据,那么其效率将比CPU高出许多。百度正在其新的AI平台上做此类尝试。总体而言,就是请求发送到数据中心,然后将多个请求打包传入GPU,使得每次不再只处理一个请求,而是多个请求。

目前还不清楚Google将如何处理这个问题。但是他们表示已经有TensorFlow在执行阶段使用GPU的案例。其发言人证实,基于不同的问题,有时候会把GPU既用于训练模型,又用于识别使用。

这似乎显得微不足道,但事实上却是一项大的改变。驱动这些AI应用产品的系统包括数以千计台的机器,而且这些系统在我们日常生活中的地位日益重要。现在Google的深度学习技术不仅用来识别照片、识别语音、机器翻译,还用来提高搜索质量。其它公司也将同样的技术用于精准广告投放、计算机安全,甚至理解自然语言的应用。即是说,像Google和百度这样的公司都需要极其大量的GPU。

与此同时,人工智能引擎TensorFlow将其中一些AI产品从数据中心移植到了智能手机上。通常,在使用手机端涉及深度学习相关的App时,不回传信息到数据中心是无法运行的。所有的AI都部署在服务器端。例如,在安卓手机上执行一个命令,此命令必须传到Google的数据中心,通过那里的庞大的CPU或GPU网络才能处理。

Google一直在提升自己的AI引擎,使得可以在手机端就自动完成某些任务。公司工程师表示,可以使用一个能在手机端运行的模型描述,而且不需要对模型描述或代码做实质性的改动。

Google的翻译App正是这样搭建的。Google在数据中心训练模型来识别单词和完成翻译,训练完成后App就能独立地运行,而不再需要网络联接。于是把手机对准一块法语路牌,就能立即显示出英语翻译。

这要做好其实很困难,毕竟手机的处理能力有限。随着时间的推进,越来越多的此类任务会被移植到手机端。深度学习软件会改进,移动设备硬件也在发展。有人认为,深度学习的未来是在小巧灵活的移动设备上。

于此呼应的是,GPU正在试图寻找置入手机的方式,硬件制造商也在不断改进CPU的速度和效率。同时,IBM也在开发专为AI任务定制的神经形态芯片,使用过的人觉得它非常适合移动设备。

如今,Google的AI引擎不仅运行在服务器的CPU和GPU上,还运行在常规的智能手机芯片上。而且据Google工程师称,他们开发的TensorFlow引擎能让工程师们轻而易举地迁移到其它硬件平台上。随着该引擎工具的开源,外部人员也可以使用,应该可以移植到更广泛的额外硬件上了。

综上可见,硬件行业也正经历着变革——和软件界一样日新月异。

原文发布于微信公众号 - 人工智能快报(AI_News)

原文发表时间:2015-11-30

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏新智元

【AI硅脑】超越GPU,FPGA、ASIC和更智能的手机

【新智元导读】本文从云服务、on-device 和 hybrid 三个角度分析AI硬件的进步,以及各大芯片公司、巨头科技公司以及初创企业和研究机构如何将 CPU...

3259
来自专栏新智元

永远在线的人工智能:通用神经形态硬件才是 AI 的未来吗?

【新智元导读】2012年一项被誉为“最逼真人工大脑”的研究发表在 Science 杂志上,名为 Spaun 的这个系统一时引起许多关注。现在,Spaun 团队使...

2676
来自专栏大数据文摘

深度 | MIT最新研究:完爆可穿戴设备,AI算法通过无线电波追踪睡眠质量(附论文)

1884
来自专栏人工智能快报

英特尔布局神经形态计算芯片

据外媒报道,英特尔(Intel)实验室开发了一种神经形态处理器,研究人员认为它可以比传统架构的芯片(如GPU或CPU)更快、更有效地执行机器学习任务。对这种代号...

2916
来自专栏AI科技评论

业界 | 德勤预测:机器学习走向移动端成大势所趋,或将再掀行业新浪潮

日前,德勤全球发布了《2017科技、传媒和电信行业预测》报告,其中涉及到生物识别、5G网络、数字化变革、平板电脑发展趋势研究等多项内容。其中在《边缘“大脑”:机...

35715
来自专栏AI科技评论

洞见 | 专访中科创达王璠:怎样做好嵌入式人工智能的算法开发?

目前在人工智能领域,不管是学术圈还是工业圈,大家都认同一个趋势,那就是在很多应用场景上计算需要落地到设备上,让设备拥有智能化——即嵌入式的AI,这个是人工智能领...

3519
来自专栏BestSDK

量子计算,将开启云计算通往新世界的大门

到2025年,云中对传统计算功能的需求将会非常大,以至于云计算无法满足这些计算需求。量子计算的到来有望彻底改变云计算,量子计算提供的是大规模并行处理,原子级存储...

2664
来自专栏人工智能快报

科学家研制出基于自旋电子的人工智能

日本东北大学(Tohoku University)的研究人员首次成功的演示了基于自旋电子的人工智能。 人工智能模拟了大脑快速执行复合任务和复杂任务(例如图像识别...

34110
来自专栏机器人网

一台电脑也可打造你所需要的人工智能大脑

当Google使用16000台机器建造了一个可以正确识别出YouTube视频中是否有猫的仿真“大脑”时,这就标志着人工智能(AI)技术迎来了一个转折点。这种新兴...

3197
来自专栏ATYUN订阅号

【科技】嵌入式深度学习:从云端到设备

苹果的人脸识别标志着嵌入式人工智能第二阶段的开始,在这一阶段,更多的智能发生在独立于云的设备上。但它们并不是唯一的选择。 “健谈”的智能助手已经成为消费设备的标...

3945

扫码关注云+社区