前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >二值网络--Structured Binary Neural Networks

二值网络--Structured Binary Neural Networks

作者头像
用户1148525
发布2019-05-28 11:13:50
8420
发布2019-05-28 11:13:50
举报
文章被收录于专栏:机器学习、深度学习

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://cloud.tencent.com/developer/article/1436890

Structured Binary Neural Networks for Accurate Image Classification and Semantic Segmentation

https://arxiv.org/abs/1811.10413

https://github.com/wonnado/binary-nets Pytorch

Binary Ensemble Neural Network 的思路就是将 若干个独立的二值网络组合起来近似 实数值网络,本文提出的 Structured Binary Neural Networks 更进一步,将实数值网络分解为各个模块,然后使用若干二值网络来近似这些模块,对于网络的分解,通过学习完成动态分解。

3.1 Problem definition

Binarization of weights: 权重二值化

Binarization of activations: 响应二值化

3.2 Structured Binary Network Decomposition

propose to decompose a network into binary structures while preserving its representability

如何使用二值网络结构来近似实数值网络,反过来就是将实数值网络分解为二值网络结构,这里提出两个分解思路:layer-wise decomposition and group-wise decomposition

3.2.1 Layer-wise binary decomposition

layer-wise binary decomposition 的思路就是对每个实数值卷积层使用 K 个二值卷积层来近似表示,如上图(c)所示

approximate each layer with multiple branches of binary layers

这么分解可能有一个问题就是误差会累积,通过反向传播导致梯度偏差过大。

each branch will introduce a certain amount of error and the error may accumulate due to the aggregation of multi-branches. As a result, this strategy may incur severe quantization errors and bring large deviation for gradients during backpropagation

为此作者提出了 下面的分解方式

3.2.2 Group-wise binary decomposition

所谓的 Group-wise binary decomposition 就是对于一个给定的实数值网络模块,这里我们使用 K 个二值网络模块来近似这个实数值网络模型

3.2.3 Learning for dynamic decomposition

如何分解网络了?

这里引入了一个 fusion gate as the soft connection between blocks

3.3 Extension to semantic segmentation

这里介绍了一下如何将上面提出的思路应用语义分割中的 atrous convolutional layer ,Binary Parallel Atrous Convolution (BPAC)

Multi-dilations decompose

4 Discussions

Complexity analysis

LBD: It implements the layer-wise binary decomposition strategy

Group-Net: It implements the full model with learnt soft connections ReLU(·) as nonlinearity

Group-Net**: apply shortcut bypassing every binary convolution to improve the convergence Tanh(·) as nonlinearity.

11

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019年05月06日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档