首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

IC设计MIT超节能神经网络芯片 加速移动AI运算

人工智能(AI)系统的进步受到神经网络影响,大多数依赖神经网络的手机应用程序(App)本质上是将信息传递给网络服务器,藉网络服务器进行处理,再将运算结果发送回行动装置。麻省理工学院(MIT)研究人员研发一款特殊芯片,将神经网络运算速度提高3~7倍,同时降低94~95%的功率消耗,让手机甚至家电本身也能直接运行神经网络系统,减少以远程服务器协助运算的限制。

据MIT News与Tech Explorist报导,神经网络在协助脸部及语音辨识等AI技术方面功不可没,然而神经网络不仅较占空间且运算过程也较为耗电,使得智能型手机等行动装置在导入神经网络技术上,面临降低装置电池续航力挑战。带领新款芯片开发的MIT电气工程和计算机科学研究生Avishek Biswas表示,通用处理器模型是芯片内部有一部分为存储器,另一部分则是处理器,在执行行动数据运算时,数据会在两方之间来回移动。

由于机器学习算法需要大量运算,所以数据来回传输很耗能,但这些算法所做的运算可以简化为一个特定的操作,称为点积(dot product)。研究人员在存储器中实现这种点积功能,不需要来回传输这些数据。

Biswas近期发表的论文指出,神经网络通常分为许多层,在神经网络其中一层的单一处理节点,一般会从下方层接收到来自几个节点的数据,并传送数据至上层的几个节点,每个节点之间的连结有其自己的权重(weight),标志下层节点传送的数据对上层节点的运算有多大影响,而训练神经网络的过程就是在设定这些权重上。

一旦一个节点获得从下层多个节点传来的数据,便会将每个数据乘上权重并加总之,这就是一个「点积」的运算,若「点积」的结果超过某个定值,就会被传送至下一层的节点,下一层节点也会以其自有权重相乘并加总。神经网络即此一运算法的抽象化体现,节点就是储存在计算机存储器中的权重。

「点积」的运算通常包含从存储器中提取权重及相关数据项目,将这两数据相乘再储存该结果于某处,再重复此一运算过程至完成为止,但由于一个神经网络有着数千或甚至数百万个节点,因此会有大量数据要进行移动。

此次MIT研究团队是模仿人类大脑活动模式开发出上述专用芯片,芯片中一个节点的输入值被转换成电压,再以适当权重相乘,将相乘后的结果相加的过程,就是将这些电压组合的过程,只有被组合的电压才能被转换成数码化的数据,并储存供进一步处理之用。因此这款芯片能够为多个节点计算「点积」,如在原型样式芯片中,能够一次为16个节点进行计算。

IBM人工智能副总裁Dario Gil表示,这是一款用于深度学习应用,基于静态随机存取存储器(SRAM)的内部类比运算,并相当有前景的实际演示。结果显示存储器阵列卷积操作的高能效执行,肯定会为将来物联网(IoT)应用中更复杂的卷积神经网络运算开辟更多可能性。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180302A0OKPK00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券