优化AI芯片能效 Thinker团队提供新思路

目前,AI对硬件的计算要求越来越高,这主要在神经网络研发上压缩与简化则是一个学术界与工程界都在研究讨论的重要问题。目前的深度神经网络普遍较大,无论是在云端还是在终端,都会影响网络速度,增大功耗。

前不久,清华大学微纳电子系Thinker团队在计算结构上设计了Thinker系列AI计算芯片,并且还受到学术界和工业界的广泛关注。Thinker团队此次研究成果,从存储优化和软硬件协同设计的角度大幅提升了芯片能量效率,给AI计算芯片的架构演进提供了新思路。

据了解,在这次AI计算芯片的存储优化新方法中,刷新了神经网络加速框架,而且可以得到两个优化方向,其一是减少数据生存时间,其二就是增大数据维持时间。其次,还提出神经网络分层的混合计算模式,根据芯片参数及DNN网络参数,对网络的每一层分配一个最优的计算模式。

但是,相比于传统的采用SRAM的AI计算芯片,使用RANA框架的基于eDRAM的计算芯片在面积开销相同的情况下可以减少41.7%的片外访存和66.2%的系统能耗,使AI计算系统的能量效率获得大幅提高。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180612A0XQD800?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券