前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Mxnet 实现图片快速风格化

Mxnet 实现图片快速风格化

原创
作者头像
Ldpe2G
发布2018-06-21 15:55:54
4210
发布2018-06-21 15:55:54
举报

前言

论文链接:Perceptual Losses for Real-Time Style Transfer and Super-Resolution

论文的补充资料:Supplementary Material

以下Github链接是各种深度学习框架的实现:

1, Torch fast-nueral-style

2, Tensorflow fast-nueral-style

3, Keras fast-nueral-style

4, Chainer fast-nueral-style

5, 还有我基于Mxnet实现的一个版本: Mxnet fast-nueral-style

正文

框架介绍

论文的提出一个网络框架来解决图像变换的问题,然后论文在两个任务上做了实验,图像的风格

化和超分辨。本文只介绍风格化的思路,其实很直接就是训练一个图像变换网络,使之能够学会把

输入的图像转换为某一个风格的图像,之所以快就是因为只要 forward 一遍就能得到想要的风格化

图片。

文章的框架:

整个框架其实分为两部分,前面的图像变换网络(Image Transform Network)就是我们要训

练的,后面和Neural Style 文章的方法差别不大,就是loss的定义不同,用训练好的VGG网络来提

取风格图片和内容图片的高级特征,然后计算梯度,更新前面图像变换网络的权值,LOSS 网络的

权值保持不变。训练好了以后,后面的那部分就可以不用了。其实后面的部分可以更换不同的网络,

比如ResNet。

Image Transform 网络的配置在论文的补充材料中有详细的介绍:

简单来说就是,前面三层卷积,对图片作了两次下采样,然后接5个相同的残差模块,

然后接两层反卷积层,恢复到输入图片的大小,最后再接一层卷积层大小保持不变,就得到了

图像变换网络的输出。残差模块的定义:

和之前的參差模块的最主要的区别是最后的Relu激活给去掉了。然后transform网络最后的卷积

输出的激活函数采用tanh。网络的定义的细节或者看代码更直接易

懂:https://github.com/Ldpe2G/DeepLearningForFun/blob/master/Mxnet-Scala/FastNeuralStyle/src/main/scala/ResdualModel.scala

训练过程:

loss的计算,从图中可以看到,对于风格图的loss采用VGG的,relu1_2、relu2_2、relu3_3和

relu4_3的输出,内容的loss采用relu3_3的输出。然后就是比如现在要训练某种风格,风格图片

(Style Target)固定,而内容图片在换,每次迭代,Input Image 和 Content Traget是同一

张图片,首先图像变换网络forward一遍得到 变换之后的图片,图中的 y(带帽),然后后面的

部分就是三个图片 ys, yc, y(带帽)分别过网络,然后把所有的loss加起来得到最后的loss。

具体的loss定义和实现细节可以看论文,还可以结合代码来理解,上面提供了各种实现的链接。

复现结果展示

接下来看看用Mxnet复现的结果。速度还可以,在GTX 1070 GPU上分辨率 1500 x 1000 的图

片也就0.3s 左右。效果也不错。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • 正文
    • 框架介绍
      • 文章的框架:
      • 训练过程:
    • 复现结果展示
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档