GAN 学习指南:从原理入门到制作生成 Demo,总共分几步?

生成式对抗网络(GAN)是近年来大热的深度学习模型。最近正好有空看了这方面的一些论文,跑了一个 GAN 的代码,于是写了这篇文章来介绍一下 GAN。

本文主要分为三个部分:

  • 介绍原始的 GAN 的原理
  • 同样非常重要的 DCGAN 的原理
  • 如何在 Tensorflow 跑 DCGAN 的代码,生成如题图所示的动漫头像,附送数据集哦 :-)

一、GAN 原理介绍

说到 GAN 第一篇要看的 paper 当然是 Ian Goodfellow 大牛的 Generative Adversarial Networks,这篇 paper 算是这个领域的开山之作。

GAN 的基本原理其实非常简单,这里以生成图片为例进行说明。假设我们有两个网络,G(Generator)和 D(Discriminator)。正如它的名字所暗示的那样,它们的功能分别是:

  • G 是一个生成图片的网络,它接收一个随机的噪声 z,通过这个噪声生成图片,记做 G(z)。
  • D 是一个判别网络,判别一张图片是不是 “真实的”。它的输入参数是 x,x 代表一张图片,输出 D(x)代表 x 为真实图片的概率,如果为 1,就代表 100% 是真实的图片,而输出为 0,就代表不可能是真实的图片。

在训练过程中,生成网络 G 的目标就是尽量生成真实的图片去欺骗判别网络 D。而 D 的目标就是尽量把 G 生成的图片和真实的图片分别开来。这样,G 和 D 构成了一个动态的 “博弈过程”。

最后博弈的结果是什么?在最理想的状态下,G 可以生成足以 “以假乱真” 的图片 G(z)。对于 D 来说,它难以判定 G 生成的图片究竟是不是真实的,因此 D(G(z)) = 0.5。

这样我们的目的就达成了:我们得到了一个生成式的模型 G,它可以用来生成图片。

以上只是大致说了一下 GAN 的核心原理,如何用数学语言描述呢?这里直接摘录论文里的公式:

简单分析一下这个公式:

  • 整个式子由两项构成。x 表示真实图片,z 表示输入 G 网络的噪声,而 G(z) 表示 G 网络生成的图片。
  • D(x) 表示 D 网络判断真实图片是否真实的概率(因为 x 就是真实的,所以对于 D 来说,这个值越接近 1 越好)。而 D(G(z)) 是 D 网络判断 G 生成的图片的是否真实的概率。
  • G 的目的:上面提到过,D(G(z)) 是 D 网络判断 G 生成的图片是否真实的概率,G 应该希望自己生成的图片 “越接近真实越好”。也就是说,G 希望 D(G(z)) 尽可能得大,这时 V(D, G) 会变小。因此我们看到式子的最前面的记号是 min_G。
  • D 的目的:D 的能力越强,D(x) 应该越大,D(G(x)) 应该越小。这时 V(D,G) 会变大。因此式子对于 D 来说是求最大 (max_D)

下面这幅图片很好地描述了这个过程:

那么如何用随机梯度下降法训练 D 和 G?论文中也给出了算法:

这里红框圈出的部分是我们要额外注意的。第一步我们训练 D,D 是希望 V(G, D) 越大越好,所以是加上梯度 (ascending)。第二步训练 G 时,V(G, D) 越小越好,所以是减去梯度 (descending)。整个训练过程交替进行。

二、DCGAN 原理介绍

我们知道深度学习中对图像处理应用最好的模型是 CNN,那么如何把 CNN 与 GAN 结合?DCGAN 是这方面最好的尝试之一(点击查看论文)

DCGAN 的原理和 GAN 是一样的,这里就不在赘述。它只是把上述的 G 和 D 换成了两个卷积神经网络(CNN)。但不是直接换就可以了,DCGAN 对卷积神经网络的结构做了一些改变,以提高样本的质量和收敛的速度,这些改变有:

  • 取消所有 pooling 层。G 网络中使用转置卷积(transposed convolutional layer)进行上采样,D 网络中用加入 stride 的卷积代替 pooling。
  • 在 D 和 G 中均使用 batch normalization
  • 去掉 FC 层,使网络变为全卷积网络
  • G 网络中使用 ReLU 作为激活函数,最后一层使用 tanh
  • D 网络中使用 LeakyReLU 作为激活函数

DCGAN 中的 G 网络示意:

三、DCGAN in Tensorflow

好了,上面说了一通原理,下面说点有意思的实践部分的内容。

DCGAN 的原作者用 DCGAN 生成 LSUN 的卧室图片,这并不是特别有意思。之前在网上看到一篇文章 Chainer で顔イラストの自動生成 - Qiita ,是用 DCGAN 生成动漫人物头像的,效果如下:

这是个很有趣的实践内容。可惜原文是用 Chainer 做的,这个框架使用的人不多。下面我们就在 Tensorflow 中复现这个结果。

1. 原始数据集的搜集

首先我们需要用爬虫爬取大量的动漫图片,原文是在这个网站:http://safebooru.donmai.us / 中爬取的。我尝试的时候,发现在我的网络环境下无法访问这个网站,于是我就写了一个简单的爬虫爬了另外一个著名的动漫图库网站:konachan.net。

爬虫代码如下:

这个爬虫大概跑了一天,爬下来 12 万张图片,大概是这样的:

可以看到这里面的图片大多数比较杂乱,还不能直接作为数据训练,我们需要用合适的工具,截取人物的头像进行训练。

2. 头像截取

截取头像和原文一样,直接使用 github 上一个基于 opencv 的工具:nagadomi。

简单包装下代码:

截取头像后的人物数据:

这样就可以用来训练了!

如果你不想从头开始爬图片,可以直接使用我爬好的头像数据(275M,约 5 万多张图片):百度云盘 提取码:g5qa

3. 训练

DCGAN 在 Tensorflow 中已经有人造好了轮子:carpedm20/DCGAN,我们直接使用这个代码就可以了。

不过原始代码中只提供了有限的几个数据库,如何训练自己的数据?在 model.py 中我们找到读数据的几行代码:

if config.dataset == 'mnist': data_X, data_y = self.load_mnist() else: data = glob(os.path.join("./data", config.dataset, "*.jpg"))

这样读数据的逻辑就很清楚了,我们在 data 文件夹中再新建一个 anime 文件夹,把图片直接放到这个文件夹里,运行时指定 --dataset anime 即可。

运行指令(参数含义:指定生成的图片的尺寸为 48x48,我们图片的大小是 96x96,跑 300 个 epoch):

python main.py --image_size 96 --output_size 48 --dataset anime --is_crop True --is_train True --epoch 300

4. 结果

第 1 个 epoch 跑完(只有一点点轮廓):

第 5 个 epoch 之后的结果:

第 10 个 epoch:

200 个 epoch,仔细看有些图片确实是足以以假乱真的:

题图是我从第 300 个 epoch 生成的。

四、总结和后续

简单介绍了一下 GAN 和 DCGAN 的原理。以及如何使用 Tensorflow 做一个简单的生成图片的 demo。

一些后续阅读:

Ian Goodfellow 对 GAN 一系列工作总结的 ppt,确实精彩,推荐:GAN 之父 NIPS 2016 演讲现场直击:全方位解读生成对抗网络的原理及未来(http://it.sohu.com/20161210/n475485860.shtml)

GAN 论文汇总,包含 code:zhangqianhui/AdversarialNetsPapers(https://github.com/zhangqianhui/AdversarialNetsPapers)

原文发布于微信公众号 - AI研习社(okweiwu)

原文发表时间:2017-07-30

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏BestSDK

Google发布Tensorflow物体识别API ,自动识别视频内容

做图像识别有很多不同的途径。谷歌最近发布了一个使用Tensorflow的物体识别API,让计算机视觉在各方面都更进了一步。 ? API概述 这个API是用COC...

7095
来自专栏CreateAMind

最近比较火的三个GAN应用及代码--Pix2pix

Pix2pix是一个全新的工具,旨在允许任何类型的图像变换的应用程序无关的训练。所需要的是包含图像对A和B的数据集,并且可以训练网络以变换到任一方向。可能的应用...

1483
来自专栏AI科技大本营的专栏

900万张标注图像,谷歌发布Open Images最新V3版

翻译 | Shawn 过去几年机器学习的发展使得计算机视觉有了快速的进步,系统能够自动描述图片,对共享的图片创造自然语言回应。其中大部分的进展都可归因于 Ima...

4167
来自专栏人工智能头条

GAN学习指南:从原理入门到制作生成Demo

2597
来自专栏机器之心

教程 | 基于Keras的LSTM多变量时间序列预测

4138
来自专栏Petrichor的专栏

深度学习: 从 Selective Search 到 RPN

具体参见我的另一篇博客:Selective Search (选择搜索),简而言之就是,Selective Search 太low太低效。

2744
来自专栏机器之心

学界 | 斯坦福论文提出MoleculeNet:分子机器学习新基准

选自arXiv 机器之心编译 参与:路雪、李泽南 分子机器学习快速发展,但是缺少用于对比不同方法性能的标准基准,算法进步因此受到限制。斯坦福的研究者提出一种适合...

3247
来自专栏Petrichor的专栏

思考: R-CNN系列 网络结构 设计缺陷

在 Fast R-CNN 中,网络最后部分的 cls reg (分类回归,即对框内实例进行标签分类)和 bbox reg (边界框回归,即对边界框进行平移回归)...

3272
来自专栏ATYUN订阅号

使用TensorFlow和DLTK进行生物医学图像分析的介绍

DLTK是用于医学图像的深度学习工具包,它扩展了TensorFlow, 以实现生物医学图像的深度学习。它为经典的应用程序提供特殊的操作和功能、模型的实现、教程(...

2404
来自专栏AI启蒙研究院

【通俗理解】协方差

1042

扫码关注云+社区

领取腾讯云代金券