科学家尝试将人工智能嵌入移动系统

基于神经网络的人工智能系统最近创造了多项佳绩:战胜人类围棋大师、创造品酒记录、迷幻艺术作品大奖,但若做到将这些异常复杂的高能耗系统用于现实并将其集成到便携式设备中并非易事,但据美国电气电子工程师学会《科技纵览》报道,美国麻省理工学院、英伟达和韩国科学技术院(KAIST)的研究团队在2016年2月旧金山召开的IEEE国际固态电路会议上展示的几种低能耗芯片原型拉近了这一目标,这些芯片的设计用途是运行人工神经网络,为智能手机识别所见的事物提供线索,并能让自动驾驶汽车预测行人的动向。

到目前为止,若想在智能手机、小型机器人、无人机等主要依赖人工智能的移动设备上运行与人脑细胞网络相似的神经网络学习系统需要耗用大量电能。这些新开发的移动智能芯片还可以提高自动驾驶汽车的智能水平,并且不会耗尽汽车的电池或降低燃油经济性。

智能手机处理器不久将能够运行一些具有强大功能的神经网络软件,美国高通公司向手机制造商提供的新一代智能手机处理器Snapdragon带有一个软件开发工具包,可利用神经网络实现图像自动标记。这一基于软件的方法具有里程碑意义,但存在局限性:首先,手机的应用程序不能自主学习新事物,而只能借助更强大的计算机学习而习得。神经网络专家认为,如果这些应用程序能够将神经网络友好型功能集成到电路本身中去,则有望实现更复杂的功能。

麻省理工学院教授Vivienne Sze认为,神经网络越大,计算层越多,运行时需要的电量就越大,无论对于何种应用程序,主要的耗电过程都在于处理器与内存之间的数据传输,这是图像分析所采用的卷积神经网络存在的一个突出问题。

对于人脑而言,对记忆的内容进行联想这一能力是自然形成的,一个3岁的小孩可以轻而易举地告诉你照片中有一只猫躺在床上。卷积神经网络还可对一张图像中的所有物体进行标记。首先,AlexNet等图片识别系统会发现照片中物体的边缘,然后开始逐一识别:猫、床、毯子,最终推断出图片显示的是一个室内场景。然而,即使是如此简单的标记过程也需要耗用大量电能。

Vivienne Sze认为,神经网络尤其是用于图像分析的神经网络通常是在图形处理器(GPU)上运行,高通公司开发的Snapdragon就是利用这一点实现了其场景探测功能,目前已有专门用于图像处理的GPU,但仍需继续研究如何使神经网络的运行更节能。

Vivienne Sze教授与英伟达的高级研究科学家Joel Emer共同开发了Eyeriss芯片,这是首选用于运行最先进的卷积神经网络的定制芯片,该芯片可运行AlexNet这种要求特别高的算法,其能耗不到传统移动GPU的十分之一:传统芯片的能耗为5-10瓦,而Eyeriss只需0.3瓦。

这种芯片的每个168处理引擎旁边都装有一个专用内存条,能节约能耗。该芯片会尽量避免从一个容量更大的一级内存条中获取数据。Eyeriss还可对传送的数据进行压缩并利用统计技巧跳过GPU通常会执行的某些步骤。

韩国科学技术院教授Lee-Sup Kim称,这些用于神经网络驱动的图像分析的电路还可用于机场面部识别系统和机器人导航,在这次会议上,Kim的实验室展示了一款专为物联网的通用视觉处理器而设计的芯片。和Eyeriss一样,韩国科学技术院的这个设计通过将内存和处理器更紧密地结合到一起最大限度减少了数据传输。其能耗仅为45毫瓦,但其所运行的网络并不如Eyeriss运行的网络那样复杂。它通过限制数据传输和减轻计算负载两种手段实现节能。Kim领导的研究团队观察发现,一次关键计算使用的99%的数字只需要8个比特就能完成传输,因此他们可以限制用于此计算的资源。

Sze、Emer和Kim正在努力开发用于图像分析的通用型神经网络芯片——一种NNPU。另一位韩国科学技术院教授、系统设计创新与应用研究中心负责人Hoi-Jun Yoo支持采用一种更加专用化、由应用驱动的方法开发神经网络硬件。

Yoo介绍了一种专为自动驾驶汽车设计的系统。它是为识别视野中对象的卷积网络设计的,其采用的是另一种算法:递归神经网络。这里的“递归”是指系统的时间记忆功能,这些功能的作用是分析视频、语音和其它随时间变化的信息。Yoo的研究团队希望开发出一种能够运行递归神经网络的芯片,该网络可用于追踪运动目标并预测其动向,比如人行道上的行人是否会进入车道?这个功耗仅330毫瓦的系统可以同时预测20个目标的动向,并且几乎是实时的,延迟仅有1.24毫秒。

Yoo所在团队开发的这一系统与麻省理工学员研发的芯片之间的另一个不同点在于它所采用的被Yoo称为“动向预测处理器(Intention Prediction Processor)”的硬件能在实际应用时仍继续学习。Yoo的设计整合了“深度学习内核(deep-learning core)”电路,该电路的设计是为了集成到神经网络的学习过程。对于卷积神经网络而言,这样的深度学习训练通常要在高级的计算机上完成,但Yoo认为,设备应该适应人类的生活,并能在工作中不断学习,为所有事件进行预编程是不可能的,现实世界是多样化的,几乎不可能预测。

原文发布于微信公众号 - 人工智能快报(AI_News)

原文发表时间:2016-06-06

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器学习算法与Python学习

看论文头疼吗?这里有一份学术论文阅读指南请查收!

对于从事学术研究的人来说,跟进最新的论文是必备的科研素质之一。但面对海量的论文更新,应该如何快速又有效地阅读论文,吸收其精华? KyleM Shannon 为我...

24500
来自专栏AI科技大本营的专栏

AI 技术讲座精选: 数学不好,也可以学习人工智能(二)

【AI100 导读】本系列文章将陆续向大家推荐一些数学用书,今天这篇文章有针对性的介绍了数学不好的人,究竟该怎样学习人工智能。 ? 如果你已经看过本系列的第一篇...

38360
来自专栏大数据文摘

利用Python进行深度学习的完整入门指南(附资源)

27970
来自专栏专知

【下载】JAVA程序员深度学习实用指引《Deep Learning: Practical Neural Networks》

【导读】 Yusuke Sugomori等人的新书《JAVA深度学习实战》(Deep Learning: Practical Neural Networks w...

376120
来自专栏大数据文摘

2017 NIPS 哪家强?我们统计了大会发文数量,谷歌和CMU稳居老大

18230
来自专栏玉树芝兰

如何用人工智能帮你找论文?

传统的关键词检索论文,浩如烟海的结果让你无所适从?试试人工智能检索引擎。根据你的研究兴趣和偏好,便捷而靠谱帮你找论文。

12610
来自专栏ATYUN订阅号

研究人员开发AI预测能够中断核聚变和破坏设备的威胁

为了捕捉和控制地球上被称为托卡马克的设施中的太阳和恒星的核聚变过程,科学家们必须能够阻止那些会中断反应并破坏环形设备的威胁。现在美国能源部(DOE)普林斯顿等离...

15530
来自专栏机器学习算法与Python学习

报告 | 腾讯知文,从0到1打造下一代智能问答引擎【CCF-GAIR】

2018年7月1日上午自然语言处理专场中腾讯知文算法负责人钟黎就NLP、NLU、dialogue等面临的问题,做了其“从0到1打造下一代智能问答引擎”的报告。

19700
来自专栏AI科技评论

论文 | 谷歌OpenAI联合发布AI安全五大准则,预防AI暴走(下)

今天我们带来了谷歌安全五大定律的下篇,经过详细的论证,谷歌给出了一个可执行的AI的安全问题设计框架。让对于AI的限制的问题不再仅限于假设和推测,对今后深度学习系...

30640
来自专栏人工智能快报

韩国先进科学技术研究院研制出人工智能专用芯片

韩国先进科学技术研究院(Korea Advanced Institute of Science and Technology,KAIST)发布消息称,该院研发团...

35550

扫码关注云+社区

领取腾讯云代金券