Mxnet 实现图片快速风格化

前言

论文链接:Perceptual Losses for Real-Time Style Transfer and Super-Resolution

论文的补充资料:Supplementary Material

以下Github链接是各种深度学习框架的实现:

1, Torch fast-nueral-style

2, Tensorflow fast-nueral-style

3, Keras fast-nueral-style

4, Chainer fast-nueral-style

5, 还有我基于Mxnet实现的一个版本: Mxnet fast-nueral-style

正文

框架介绍

论文的提出一个网络框架来解决图像变换的问题,然后论文在两个任务上做了实验,图像的风格

化和超分辨。本文只介绍风格化的思路,其实很直接就是训练一个图像变换网络,使之能够学会把

输入的图像转换为某一个风格的图像,之所以快就是因为只要 forward 一遍就能得到想要的风格化

图片。

文章的框架:

整个框架其实分为两部分,前面的图像变换网络(Image Transform Network)就是我们要训

练的,后面和Neural Style 文章的方法差别不大,就是loss的定义不同,用训练好的VGG网络来提

取风格图片和内容图片的高级特征,然后计算梯度,更新前面图像变换网络的权值,LOSS 网络的

权值保持不变。训练好了以后,后面的那部分就可以不用了。其实后面的部分可以更换不同的网络,

比如ResNet。

Image Transform 网络的配置在论文的补充材料中有详细的介绍:

简单来说就是,前面三层卷积,对图片作了两次下采样,然后接5个相同的残差模块,

然后接两层反卷积层,恢复到输入图片的大小,最后再接一层卷积层大小保持不变,就得到了

图像变换网络的输出。残差模块的定义:

和之前的參差模块的最主要的区别是最后的Relu激活给去掉了。然后transform网络最后的卷积

输出的激活函数采用tanh。网络的定义的细节或者看代码更直接易

懂:https://github.com/Ldpe2G/DeepLearningForFun/blob/master/Mxnet-Scala/FastNeuralStyle/src/main/scala/ResdualModel.scala

训练过程:

loss的计算,从图中可以看到,对于风格图的loss采用VGG的,relu1_2、relu2_2、relu3_3和

relu4_3的输出,内容的loss采用relu3_3的输出。然后就是比如现在要训练某种风格,风格图片

(Style Target)固定,而内容图片在换,每次迭代,Input Image 和 Content Traget是同一

张图片,首先图像变换网络forward一遍得到 变换之后的图片,图中的 y(带帽),然后后面的

部分就是三个图片 ys, yc, y(带帽)分别过网络,然后把所有的loss加起来得到最后的loss。

具体的loss定义和实现细节可以看论文,还可以结合代码来理解,上面提供了各种实现的链接。

复现结果展示

接下来看看用Mxnet复现的结果。速度还可以,在GTX 1070 GPU上分辨率 1500 x 1000 的图

片也就0.3s 左右。效果也不错。

原创声明,本文系作者授权云+社区发表,未经许可,不得转载。

如有侵权,请联系 yunjia_community@tencent.com 删除。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏新智元

【资源】用深度学习解决自然语言处理中的7大问题,文本分类、语言建模、机器翻译等

【新智元导读】自然语言处理领域正在从统计学方法转向神经网络方法。在自然语言中,仍然存在许多具有挑战性的问题。但是,深度学习方法在某些特定的语言问题上取得了sta...

32311
来自专栏瓜大三哥

图像锐化

图像锐化是一种补偿轮廓、突出边缘信息以使图像更为清晰的处理方法。锐化的目标实质上是要增强原始图像的高频成分。常规的锐化算法对整幅图像进行高频增强, 结果呈现明显...

2027
来自专栏Petrichor的专栏

深度学习: greedy layer-wise pre-training (逐层贪婪预训练)

每次只训练网络中的一层,即我们首先训练一个只含一个隐藏层的网络,仅当这层网络训练结束之后才开始训练一个有两个隐藏层的网络,以此类推。

1133
来自专栏专知

春节充电系列:李宏毅2017机器学习课程学习笔记29之循环神经网络 Recurrent Neural Network Part3

【导读】我们在上一节的内容中已经为大家介绍了台大李宏毅老师的机器学习课程的Recurrent Neural Network进阶知识。这一节将主要针对讨论Recu...

3459
来自专栏企鹅号快讯

行人再识别中的迁移学习

最近,在网上搜索关于“行人重识别”及“行人再识别”等关键词,发现几乎都是关于行人检测的内容。对于“行人重(再)识别”技术能找到的资料很少,这可能是因为“行人重(...

2817
来自专栏PPV课数据科学社区

【资源】用深度学习解决自然语言处理中的7大问题,文本分类、语言建模、机器翻译等

摘要: 本文讲的是用深度学习解决自然语言处理中的7大问题,文本分类、语言建模、机器翻译等,自然语言处理领域正在从统计学方法转向神经网络方法。在自然语言中,仍然存...

3175
来自专栏数据派THU

送你6份最新开源代码!含NLP、ML、计算机视觉方向(附代码和论文)

来源:PaperWeekly 本文长度为636字,建议阅读3分钟 本文为你分享6份最新的开源代码,包括自然语言处理、计算机视觉和机器学习3个方面。 自然语言处理...

1935
来自专栏人工智能

Coursera吴恩达《卷积神经网络》课程笔记(1)-卷积神经网络基础

推荐阅读时间:8min~15min 主要内容:卷积神经网络 《Convolutional Neural Networks》是Andrw Ng深度学习专项课程中的...

1879
来自专栏人工智能头条

感知损失(Perceptual Losses)

3076
来自专栏机器之心

嘿嘿,想变成会跳舞的小哥哥或小姐姐吗?超简单!

作者:Caroline Chan、Shiry Ginosar、Tinghui Zhou、Alexei A. Efros

521

扫码关注云+社区