首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

深度学习编译器之Layerout Transform优化

继续深度学习编译器的优化工作解读,本篇文章要介绍的是OneFlow系统中如何基于MLIR实现Layerout Transform。在2D卷积神经网络中,除了NCHW数据格式之外一般还存在NHWC的数据格式,对于卷积操作来说使用NHWC格式进行计算可能会获得更好的性能。但深度学习网络的训练一般来说是采用NCHW进行的,我们一般只有在推理时才做NCHW到NHWC的Layerout Transform。这里存在两个问题:首先对于一个算子比如Conv2D,它以NCHW方式训练时保存的权重格式是[out_channels, in_channels, *kernel_size],但是要以NHWC格式进行推理时我们需要对权重的格式进行转换;然后对于没有权重的算子来说,我们也需要尽量的让算子支持NHWC的运算,来减少因为卷积算子前后插入的Transpose操作带来的额外开销。举个例子,假设有如下的一个小网络 x->conv->relu->conv->relu->out,如果我们要以NHWC格式执行那么我们除了对2个卷积的权重进行改动之外,我们还需要在conv前后插入transpose来修改输入到conv算子的数据格式,也就是x->transpose(0, 2, 3, 1)->conv->transpose(0, 3, 1, 2) -> relu -> transpose(0, 2, 3, 1)->conv->transpose(0, 3, 1, 2) -> relu->out。然后细心的读者可以发现,实际上这里存在很多冗余的Transpose,因为ReLU是支持以NHWC格式进行运算的,那么这个网络可以化简为x->transpose(0, 2, 3, 1)->conv->relu->conv->relu->transpose(0, 3, 1, 2)->out。这样可以减少一半的Transpose Op开销。

04

网络模型量化与推理加速框架OpenVINO最新版本SDK演示

英特尔从2018年发布OpenVINO 视觉框架之后,很多公司与开发者尝试之后,反馈良好。至今英特尔几乎每个季度都会更新一个小版本发布,最新发布的OpenVINO 2019R03版本,跟2018年的版本有了全方位的性能提升、SDK开发接口更加的易用易学,对开发者更加的友好。去年我记得我使用OpenVINO SDK开发应用程序的时候,经常被代码中的各种路径常量搞得晕头转向,吐槽这种加载IE的方式很让人无语,果然,今年都改好啦。而且更重要的是优化整个开发流程的SDK使用,使得整个工作流看上去更加合理,符合程序员的思维习惯。同时对各种硬件支持,更加的灵活方便,加强了可配置性。另外还有个值得惊喜的地方是支持INT8的模型量化啦,这个真的好!

03
领券