前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >模型加速--Slimmable neural networks

模型加速--Slimmable neural networks

作者头像
用户1148525
发布2019-05-26 11:48:43
5870
发布2019-05-26 11:48:43
举报
文章被收录于专栏:机器学习、深度学习

Slimmable neural networks ICLR2019 Code and models will be released

可瘦身的神经网络,针对不同硬件和运行环境,可以快速提供与之相适应的CNN模型来完成任务。 硬件配置好的,给一个大模型,硬件配置差的,给一个小点的模型。同一个模型,设置一下参数就可以了

At runtime, the network can adjust its width on the fly according to on-device benchmarks and resource constraints, rather than downloading and offloading different models.

在 runtime 阶段,网络可以根据 on-device benchmarks and resource constraints 快速调整网络的宽度( number of channels in a layer),不用重新下载不同的模型

同一个网络模型在不同的设备上运算时间也是不一样的。

在这里插入图片描述
在这里插入图片描述

反过来,对于不同的硬件设备及运行环境,我们能否快速的提供与之相适应的CNN网络模型来完成相关的任务了?

在这里插入图片描述
在这里插入图片描述

Given budgets of resources, how to instantly, adaptively and efficiently trade off between accuracy and latency for neural networks at runtime?

如何实现这个目的了? 在训练的过程时,我们对不同的 switches 采用 independent batch normalization

Switchable Batch Normalization (S-BN), that employs independent batch normalization (Ioffe & Szegedy, 2015) for different switches in a slimmable network.

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4分支网络和 8 分支网络性能对比

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

In general, slimmable neural networks perform better than those that are individually trained. The gain of performance is presumably due to implicit model distillation (Hintonet al., 2015; Romero et al., 2014) and richer supervision signals

11

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018年11月07日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
批量计算
批量计算(BatchCompute,Batch)是为有大数据计算业务的企业、科研单位等提供高性价比且易用的计算服务。批量计算 Batch 可以根据用户提供的批处理规模,智能地管理作业和调动其所需的最佳资源。有了 Batch 的帮助,您可以将精力集中在如何分析和处理数据结果上。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档