前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >DianNao运算单元与体系结构分析运算单元系统结构计算映射

DianNao运算单元与体系结构分析运算单元系统结构计算映射

作者头像
月见樽
发布2018-12-28 14:31:38
5920
发布2018-12-28 14:31:38
举报

运算单元

基本信息

名称

参数

数据输入位宽

bit

权值输入位宽

bit

数据输出位宽

bit

功能

矩阵乘法、最大值池化、平均值池化

乘法器数量

加法器数量

结构

strutrue.png

NFU的整体结构如上所示,该部分分为三个部分,分别是NFU-1、NFU-2和NFU-3三个部分,分别是乘法器阵列,加法或最大值树和非线性函数部分。NFU-1由一些乘法器阵列构成,如下图所示。一个单元具有一个输入数据

I_i
I_i

T_n
T_n

个输入权值,一个单元中共有

T_n
T_n

个乘法器,分别计算

I_i \times W_{ji}
I_i \times W_{ji}

的值,具有

T_n
T_n

个输出。

nfu1_unit.png

T_n
T_n

个输入数据和

T_n \times T_n
T_n \times T_n

输入权值经过NFU-1处理后,变为

T_n \times T_n
T_n \times T_n

个部分积,第i个乘法器单元的第j个输出为

P_{ij} = I_i \times W_{ji}
P_{ij} = I_i \times W_{ji}

。所有部分积经过route分配给

T_n
T_n

NFU-2单元,分配规则如下所示,第i个NFU-2单元的输入是所有NFU-1单元的第i个输出。

Input_i = \{P_{1,i},P_{2,i},P_{3,i},...,P_{T_n,i}\}
Input_i = \{P_{1,i},P_{2,i},P_{3,i},...,P_{T_n,i}\}

NFU-2单元为加法/平均值(加法树前添加位移单元)/最大值(加法树的加法器可配置为取最大值)树,用于计算

T_n
T_n

个输入的和/平均值或最大值,如下所示:

Output_i = mux\{\sum\limits_{k=1}^{T_n}P_{k,i},\frac{1}{T_n}\sum\limits_{k=1}^{T_n}P_{k,i},\max\limits_{0 \leq k \leq T_n}\{P_{k,i}\}\}
Output_i = mux\{\sum\limits_{k=1}^{T_n}P_{k,i},\frac{1}{T_n}\sum\limits_{k=1}^{T_n}P_{k,i},\max\limits_{0 \leq k \leq T_n}\{P_{k,i}\}\}

NFU-2单元的输出为一个数据,整个NFU-2部分输出为

T_n
T_n

个部分操作数据。该输出可以流向NFU-3部分作为NFU-2的输出,也可以流向D-Reg作为部分和临时保存以节约带宽。NFU-3为一个加法器和一个非线性单元。非线性单元使用分段线性逼近非线性函数,分段线性逼近参数保存在RAM中,可通过更改该参数使该单元实现任意非线性函数。

运算映射

矩阵乘法/卷积

映射以下矩阵乘法:

W \times x = y,W \in R^{T_n \times T_n},x \in R^{T_n}\\ y_{i} = \sum\limits_{j=0}^{T_n}{w_{ij}x_j}
W \times x = y,W \in R^{T_n \times T_n},x \in R^{T_n}\\ y_{i} = \sum\limits_{j=0}^{T_n}{w_{ij}x_j}

有以下配置:

  • 数据输入:第i个NFU-1单元数据输入为
x_i
x_i
  • 权值输入:第i个NFU-1单元的第j个权值输入为
w_{ji}
w_{ji}

,即第i个NFU-1单元输入的数据为W矩阵的第i列

  • NFU-2:配置和实现加法树功能

池化

映射以下最大值操作:

y = Max(x),x \in R^{T_n}
y = Max(x),x \in R^{T_n}

有以下配置:

  • 数据输入:第i个NFU-1单元数据输入为
x_i
x_i
  • 权值输入:所有权值配置为1
  • NFU-2:配置实现最大值树功能(若为求平均值,配置为平均值树)

对于x的维度小于

T_n
T_n

时,推测可以将权值部分设置为1部分设置为0作为掩码,同时计算多个最大值/平均值操作

系统结构

DianNao.png

系统结构如上所述,各部分:

  • NFU:神经计算单元,已经加入compute_unit的pool中
  • 分裂缓存:按功能分裂为三个的缓存,已经加入memory的pool中
  • 控制模块CP:指令使控制,每个指令分为四个部分,分别是NBin指令,NBout指令,SB指令和NFU指令

系统使用指令控制,每条指令可以实现一次矩阵-向量乘法运算,每个指令的四个部分被解耦后发送给四个部分,因此存储器的load指令不需要等待NFU运算完成,对于三个缓存,执行完当前步骤后立刻执行下一个指令中对应部分的指令,可以实现数据的预取,但是考虑计算正确性,NFU必须等待运算所需要的数据预存完成后才能执行。

计算映射

对于一个矩阵乘法:

W \times x = y
W \times x = y

首先进行矩阵分块,参数矩阵W分块为

C^{T_n \times T_n}
C^{T_n \times T_n}

的矩阵,输入向量x分块为

C^{T_n}
C^{T_n}

,再进行计算,如下图所示:

mul.png

分块后,原论文给出的加速器参数为

T_n=16
T_n=16

,计算需要的权值矩阵有

W \in Q^{256 \times 8192}
W \in Q^{256 \times 8192}

,数据向量有

x \in Q^{8192}
x \in Q^{8192}

,缓存载入的规则为:

  • Nbin:数据向量分块为
\frac{8192 \times 2B}{2KB} = 8
\frac{8192 \times 2B}{2KB} = 8

块,每一块数据大小为2KB=

16 \times 2B \times 64
16 \times 2B \times 64

,每次载入一块。即每次载入的输入数据包括64个逻辑块。

  • SB:每次载入32768B=
16 \times 16 \times 2B \times 64
16 \times 16 \times 2B \times 64

,即每次载入的数据包括64个逻辑块。

映射一个矩阵乘法,步骤为:

  1. Nbin载入前四个逻辑块D1,D2,~,D64。SB载入与前四个输入逻辑块运算相关的64个数据块W11、W12、W13~W64,1(分块后W的前4列,前16行的块)。NFU计算对应乘法(例如
W_{11} \times D_1
W_{11} \times D_1

W_{12} \times D_2
W_{12} \times D_2

,...,

W_{1,64} \times D_{64}
W_{1,64} \times D_{64}

),并将部分和存储在Nbout中

  1. Nbin载入第二块输入数据,包括D65~D128,SB继续载入与D1~D64运算相关的权值块W2,1~W2,64。NFU继续计算D1~D64对应乘法。直到将D1~D64相关的乘法计算完成以后,才进行D65~D128相关的乘法。
  2. ...
  3. 当某个输出的计算完成后,Nbout将其输出到外部缓存中

复用策略为仅复用输入,仅当这一块输入数据需要参与的所有运算完成后才开始进行下一块输入相关的计算。对于每一块输入映射过程如下图所示:

map.png

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.12.24 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 运算单元
    • 基本信息
      • 结构
        • 运算映射
          • 矩阵乘法/卷积
          • 池化
      • 系统结构
      • 计算映射
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档