ICLR 2018 | 阿里巴巴论文:基于交替方向法的循环神经网络多比特量化

机器之心发布

作者:徐晨等

ICLR 2018 将于 4 月 30 日在加拿大温哥华开幕,之前机器之心对此届大会的三篇获奖论文分别进行了介绍。在这篇文章中,我们介绍了阿里巴巴的一篇 ICLR 2018论文。

论文原文地址:https://arxiv.org/abs/1802.00150

引言

循环神经网络 (RNN) 在语言模型、机器翻译、语音识别、生成图像标题等很多应用上都取得了非常好的效果。然而,这些模型常常是建立在高维的嵌入 (embedding) 或者多层的循环单元中,包含了大量的参数,使得无法在资源有限的移动端部署。此外,RNN 的计算依赖于与当前的隐状态,只能被顺序执行,因此在执行推断时会造成比较大的延时。在拥有大规模并发请求的服务器端,比如语音识别或者机器翻译等应用,为了满足线上苛刻的响应时间要求,需要部署大量的机器。在这项工作中,我们考虑通过量化参数到二值 {-1,+1} 上来解决上述问题。考虑将模型的权重量化成 1 比特,相对于全精度,直接带来 32 倍的内存压缩。而对 1 比特参数的矩阵乘法,如果不考虑具体实现,相对于全精度乘法,理论上也会带来 32 倍的加速。然而,如果把模型的权重和激活都量化成 1 比特,在循环神经网络中,会带来很大的精度损失。因此,很自然的折中方案就是采用多比特量化(如图 1 所示)。

Figure 1 多比特量化乘法示意

现有的多比特量化方法

1) 均匀 (Uniform) 量化采用下列的 k 比特量化方案:

这样基于规则的量化方法非常容易实现, 但是对于非均匀数据的量化效果很差,而非均匀分布数据在深度神经网络却更为常见。

2) 均衡 (Balanced) 量化通过数据预处理来解决均匀量化的弊端。该方法首先产生 2^k 个间隔,每个间隔大致包含等量的数据。然后该方法将每个间隔的中心线性映射到对应的量化编码中。尽管看起来更有效,但是该方法还是基于规则,而这种规则并不能保证对所有的数据分布都起效果。

3) 贪婪法 (Greedy) 近似通过去解下面的带离散约束的分解问题来实现量化:

对于 k=1, 上述问题存在闭式解。贪婪近似通过逐步量化余量 (residue) 并将其推广到 k 比特 (k>1) 的情形:

每个子步都有最优解

贪婪法非常高效,尽管不能得到一个高精度的解,但是将量化问题建模成一个优化问题的形式还是非常具有启发性的。

4) 改进版 (Refined) 贪婪近似进一步拓展贪婪法以降低量化误差。在上述第 j 步最小化问题中,该方法加上额外一步最小二乘来修正系数

在原文量化卷积神经网络权重的实验中,修正版贪婪法被证实比原始的贪婪法更有效。然而,正如我们下面要讲的,修正版的贪婪法在量化精度方面仍然不能令人满意。

除了上述通用的多比特量化方案以外,还有文章还提出了三值量化,与 1 比特的二值量化相比,三值量化多了可行状态 0。三值量化通过解如下问题

来实现编码。然而,原文并未提出一种高效的解法,相反,作者通过经验,将小于

的元素设成 0, 并对剩余元素采用如上所述的二值量化。三值量化其实本质上等价于此处的 2 比特量化,唯一不同的地方在于多了一个

的约束。当二值编码被固定以后,最优系数

(或者

) 类似地可以通过最小二乘得到。

基于交替方向法的多比特量化方案

接下来将介绍本文提出的量化方法,同样我们也是通过解上述的优化问题来实现量化。为了简单起见,首先考虑 k = 2 的情形,如果

已知且满足

,那么可行编码即被限制为以下四种情况

。对于 w 中的任意元素 w, 其编码都是通过最小二乘来确定。我们相应地可以将整个坐标轴分成四份,落在某个区间上的 w 分别对应其中一个量化编码。由最近邻条件可得区间的边界即为量化编码的中间值,也就是

、0 以及

。下图给出一个示意。

Figure 2 当实系数固定时,最优 2 比特编码示意

对于任意 k 比特量化问题,假设

已知,我们可以类似地将整个坐标轴分成

个区间,其边界同样通过相邻可行编码的中点来划分。如果直接将待量化的实数 w 与所有区间边界进行比较以确定对应编码,总共需要

次,当 k 比较大,这种操作非常不经济。事实上,我们可以利用可行编码全集 v 中元素单调递增的性质,将 v 均匀分成两个子集:

, 其中 m 表示 v 的长度。如果

, 其可行编码即被限制在子集

上。相反如果

, 其可行编码即被限制在子集

上。通过递归地将可行编码子集均匀划分,我们只需要 k 次比较就可以得到最优编码。该过程可以看成是一个二叉搜索树,我们在下图中给出了一个 k=2 时的简单示意。一旦得到量化编码,即可将其一一映射到对应的二值向量

Figure 3 二叉搜索树将

次比较降为 k 次比较

基于上面的发现,我们重新来考虑上一节中介绍的改进版贪婪近似。经过最小二乘修正实系数之后,二值编码

不再是最优,而该方法却仍将其固定。为了进一步改进,交替最小化实系数和二值编码变成了一个很自然的选择。一旦用二叉搜索树得到最优的

, 可以将其固定,并采用最小二乘更新

。在真实实验中,以贪婪法得到的解作初始化,我们发现只需要两步交替迭代就足以得到高精度的解。

实验结果

Table 1 不同方法近似 PTB 数据集上训练好的 LSTM 的权重。其中 FP 表示全精度

Table 2 不同方法近似 PTB 数据集上训练好的 GRU 的权重

我们在语言模型上进行量化实验,分别测试了 LSTM 和 GRU 两种架构。因为实验是去预测下一个单词,其效果采用单字复杂度来衡量 (perplexity per word, 简写成 PPW)。为了检验所有的算法量化精度,我们首先对训练好的全精度权重做近似 (没有量化激活或者重训练),结果如表 1 和表 2 所示。注意到均匀量化和均衡量化是基于规则的,其目标并不在于最小化误差,因此这两种方法会得到差很多的结果。我们还在其他数据集上重复了上述实验,对于两种循环神经网络结构 LSTM 和 GRU,结果都与此处相似。

Table 3 PTB 数据集上多比特量化 LSTM 和 GRU 的测试 PPW,其中均匀量化和均衡量化为现有论文中的结果,改进版贪婪法为我们自己实现的结果。

Table 4 WikiText-2 数据集上多比特量化 LSTM 和 GRU 的测试 PPW。

Table 5 Text-8 数据集上多比特量化 LSTM 和 GRU 的测试 PPW

我们还进行了权重和激活同时量化的实验,结果如表 3、4 和 5 所示。从中可以看到,本文提出的交替方向法明显好过现有其他量化方法。即使与表现最好的改进版贪婪法相比,交替方向法实现类似的精度大概可以少用一个比特。

我们还在 CPU 中实现了矩阵向量的二值乘法,其结果如表 6 所示。

Table 6 CPU 中二值乘法与全精度乘法的时间比较

小结

在这个工作中,我们主要考虑神经网络的多比特量化压缩加速问题。我们发现,如果编码的实系数固定,那么离散的二值编码 {-1,+1} 可以通过二叉搜索树高效的求解。基于这个发现,我们相应地提出交替方向法。我们将该方法用于量化语言模型中的 LSTM 和 GRU 结构,与全精度模型相比,通过 2 比特量化,我们可以减少约 16 倍的内存消耗,以及在 CPU 上实现约 6 倍的真实推断加速,而只产生少量的准确率损失。通过 3 比特量化,该方法在准确率上可以实现几乎没有损失甚至超过原始模型,并减少约 10.5 倍的内存消耗,以及在 CPU 上实现约 3 倍的真实推断加速。这些结果都远远优于现有量化方法的结果。

原文发布于微信公众号 - 机器之心(almosthuman2014)

原文发表时间:2018-04-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏人工智能LeadAI

主成分分析降维(MNIST数据集)

今天看了用主成分分析简化数据,就顺便用MNIST数据集做了下实验,想直观地看一下效果,并通过完成这个小demo深入理解下原理。 我发现“是什么、能做什么、怎么用...

3908
来自专栏和蔼的张星的图像处理专栏

数字图像处理:

冈萨里斯数字图像处理的那本书的一小点点东西,数字图像处理其实是学过了的,这里我只是把这本书完整看一遍,也是略略的看,查漏补缺,前两张略过了,从第三章开始。

2554
来自专栏SnailTyan

Inception-V3论文翻译——中英文对照

Rethinking the Inception Architecture for Computer Vision Abstract Convolutional...

4410
来自专栏AI科技大本营的专栏

详解|神经网络中BP算法的原理与Python实现

作者 | EdvardHua 最近这段时间系统性的学习了BP算法后写下了这篇学习笔记。 目录 什么是梯度下降和链式求导法则 神经网络的结构 BP算法中的执行流程...

5788
来自专栏SeanCheney的专栏

《Scikit-Learn与TensorFlow机器学习实用指南》 第3章 分类

在第一章我们提到过最常用的监督学习任务是回归(用于预测某个值)和分类(预测某个类别)。在第二章我们探索了一个回归任务:预测房价。我们使用了多种算法,诸如线性回归...

1711
来自专栏人工智能

从零学习:详解基于树形结构的ML建模——决策树篇

来源:Analytics Vidhya 编译:Bot 编者按:通常,我们会把基于树形结构的学习算法认为是最好的、最常用的监督学习方法之一。树能使我们的预测模型集...

3659
来自专栏技术随笔

[译] End-to-end people detection in crowded scenes

3696
来自专栏AI科技大本营的专栏

机器学习决策树的分裂到底是什么?这篇文章讲明白了!

作者 | Prashant Gupta 译者 | AI100(rgznai100) 在实际生活中,树的类比如影随形。事实证明,树形结构对于机器学习领域同样有着广...

38811
来自专栏AI科技评论

开发 | Google 软件工程师解读:深度学习的activation function哪家强?

AI科技评论按:本文作者夏飞,清华大学计算机软件学士,卡内基梅隆大学人工智能硕士。现为谷歌软件工程师。本文首发于知乎,AI科技评论获授权转载。 ? TLDR (...

4074
来自专栏人工智能LeadAI

神经网络中 BP 算法的原理与 Python 实现源码解析

最近这段时间系统性的学习了BP算法后写下了这篇学习笔记,因为能力有限,若有明显错误,还请指出。 ? 目录 1、什么是梯度下降和链式求导法则 2、神经网络的结构 ...

6656

扫码关注云+社区

领取腾讯云代金券