模拟上帝之手的对抗博弈——GAN背后的数学原理

作者:李乐 CSDN专栏作家

简介

深度学习的潜在优势就在于可以利用大规模具有层级结构的模型来表示相关数据所服从的概率密度。从深度学习的浪潮掀起至今,深度学习的最大成功在于判别式模型。判别式模型通常是将高维度的可感知的输入信号映射到类别标签。训练判别式模型得益于反向传播算法、dropout和具有良好梯度定义的分段线性单元。然而,深度产生式模型相比之下逊色很多。这是由于极大似然的联合概率密度通常是难解的,逼近这样的概率密度函数非常困难,而且很难将分段线性单元的优势应用到产生式模型的问题。

基于以上的观察,作者提出了产生对抗网络。顾名思义,产生对抗网络包含两个网络:产生器和判别器。产生器负责伪造一些数据,要求这些数据尽可能真实(尽可能服从只有上帝知道的概率分布),而判别器负责判别给定数据是伪造的(来自产生器生成的数据),还是来自由上帝创造的真实分布。至此,我们不得不佩服作者如此的问题形式化。整个过程中就是在博弈。产生器尽可能伪造出真实的数据,而判别器尽可能提高自身的判别性能。

这样一种问题形式化实际上是一种通用框架,因为判别器和生成器可以是任何一种深度模型。为了简单起见,该篇文章只利用多层感知机,而且生成器所生成的样本是由随机噪声得到的。利用这种方法,整个模型的训练融入了之前无法利用的反向传播算法和dropout. 这个过程中不需要近似推测和马尔科夫链。

产生对抗网络

这部分将具体介绍产生对抗网络模型,并详细推导出GAN的优化目标。

简单起见,生成器和判别器都基于多层感知神经元。对于生成器,我们希望它是一个由噪声到所希望生成数据的一个映射;对于判别器,它以被考查的数据作为输入,输出其服从上帝所定义的概率分布的概率值。下图清晰地展示了这个过程。

假设我们有包含m个样本的训练集

. 此外,任给一种概率密度函数

(当然,在保证模型复杂度的前提下,相应的概率分布越简单越好),我们可以利用随机变量

采样得到m个噪声样本

. 由此,我们可以得到似然函数

进一步,得到对数似然

由大数定律,当m→∞时,我们用经验损失来近似期望损失,得

回到我们的初衷:整个过程中就是在博弈。产生器尽可能伪造出真实的数据,而判别器尽可能提高自身的判别性能。注意到我们刚刚构造的似然函数是针对判别器D(⋅)的优化目标函数。因此,我们一方面希望对判别器的可学习参数优化,极大化对数似然函数,另一方面我们希望对判别器的可学习参数优化,极小化对数似然函数。将此形式化得到我们的优化目标:

相关理论结果

生成器G(⋅)实际上隐式定义了一个概率分布pg,将其称之为隐式是因为G是从噪声

到样本G(z)的映射。由此,我们自然会提出一个问题:通过这样的建模以及训练方式得到的pg能否最终达到上帝创造的那个分布pdata,或者说两者差距到底多少?

这个问题由下面的命题和定理回答。

首先,任意给定生成器G,我们考虑最优判别器D.

命题1. 对于给定G,最优判别器为

证明.

给定G,我们目标是最大化V(G,D)

其中,χ和Ω分别为x和z的积分域或者说是样本空间。

注意到第二项,利用映射关系x=G(z),我们可以得到

这一步并不显然。(详细推导见附录C:测度论中随机变量的换元)

所以,

由于G已经给定,上帝创造的分布也是确定的,因此pdata和pg都是非零定函数,我们的目标是找到一个函数D使得V(G,D)到达最大。因此,我们对D求变分(见附录A),令其为0,可以得到,极大值点

证毕。

有了这个定理,我们可以进一步将这个min max博弈重新形式化为最小化C(G),其中

下面,我们提出并证明定理1. 由此回答本节最开始提出的问题:通过这样的建模以及训练方式得到的pg能否最终达到上帝创造的那个分布pdata,或者说两者差距到底多少?

定理1. 对于C(G)的全局优化最小值可达,当且仅当pg=pdata,并且最小值为−log4.

证明.

等号成立的条件为

(见附录B)

证毕。

由此可见,生成器完美地浮现了上帝创造数据的过程!

下面我们正式给出GAN训练算法流程,如下图所示。

注意到,作者给出的算法和我们的优化目标并不一致。我们推导出的优化目标,是先对D优化并将其优化到底,然后再对G优化。之所以实际训练流程与其不一致,是因为实际中如果对D优化到底,这将会导致很高的计算代价,而且通常会导致过拟合。相反,该算法是先对D优化k步,然后再进行一步对G的优化。通过这种方法,只要G变化得足够慢,D总是在最优解的附近。自然地,我们会提出一个疑问,这样交叉地训练G和D和形式化得到的minmax博弈,两者得到的解差距有多少?这个问题由下面的命题回答。

我们不加证明地给出该算法的收敛性。

命题2. 假设G和D有足够的表达能力,并且假设算法1的每一步,给定G,D都可以达到最优,并且pg依照下面目标优化

那么,pg可以收敛到pdata.

我们通过下面的示意图,可以更加直观地理解整个训练的过程。

最下面的水平线代表噪声的域,x代表样本的域。可以看到G(z)将一个从均匀分布采集到的样本映射到了非均匀分布的支撑集上去了。绿色的曲线代表x=G(z)的概率密度函数pg;黑色曲线代表上帝创造的概率密度函数pdata;蓝色的曲线代表判别概率函数D。(a)接近收敛时,可以看到判别函数D是部分正确的;(b)此时进行算法的内循环优化,即对于当前状态的G,优化D,优化结果如(b)图的蓝线所示;(c)进行完内循环优化后,固定D,对G进行优化,可以看到D的梯度驱使G走向D的分界面;(d)最后,如果G和D都具有足够的表达能力,两者会达到一个平衡,即pg=pdata,此时判别器无法区分两者,即D(x)=1/2.

实验效果

下面我们来欣赏一下伪装上帝的效果吧!

每张图的最右侧一栏是在训练集中的与生成样本的最近邻样本。可见,模型在没有记忆训练集的情况下生成了多样化的类似风格的图片。不像其他生成模型的可视化那样,这些图片都是由模型分布直接生成的,而不是利用条件概率的方法。并且,这些图片不像利用马尔科夫链采样过程那样所生成的图像之间是不相关的。(a)(b)(c)(d)依次是MNIST, TFD, CIFAR-10(全连接模型), CIFAR-10(卷积判别器和反卷积生成器)

附录

A. K-L散度

在概率论和信息论中,K-L散度,也称之为信息增益,是衡量两个概率分布差异的一种“度量”。我们首先给出K-L散度的定义。分为离散形式和连续形式。

对于离散形式,给定两个离散型随机变量所对应的概率函数P和Q,两者的K-L散度定义为

对于连续形式,给定两个连续型随机变量所对应的概率密度p和q,两者的K-L散度定义为

定义很抽象,下面我们对其进行直观的解读。注意到之所以这种“度量”是加引号的,因为它并不符合数学上真正度量的公理之一,即对称性。也就是说DKL(p∥q)≠DKL(q∥p). 那么前后位置的差异代表什么实际含义呢?

前置位,如定义式中的P(或p)可以理解为数据的真实分布,而Q(或q)是模型对真实分布的一种近似。另一种理解是,DKL(P∥Q)表示从先验Q到后验P带来的信息增益。

K-L散度有如下几个重要性质:

(1) K-L散度是具有良好定义的,当且仅当,当对于某些x, q(x)=0, 一定有p(x)=0;

(2) 对于某些x,当p(x)=0,一定有

(因为limx→0xlnx=0)

(3)DKL(p∥q)≥0 等号成立的条件是 p=q.

下面证明一下最后一条性质。

证毕。

B. 泛函变分

泛函变分实际上是函数微分的一种自然的推广。

对于给定泛函

其中

我们可以仿照泰勒公式,定义泛函的展开形式,对于任意η(⋅),

其中x=G(z).

我们首先定义测度空间

,其中

为z的样本空间,F为σ-代数。进一步,易证G(⋅)是可测函数:

,其中

为x的样本空间,G为

的σ-代数。因此,我们有

其中PG为x的分布。

证毕。

原文发布于微信公众号 - 人工智能头条(AI_Thinker)

原文发表时间:2017-06-01

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器学习和数学

[机智的机器在学习]机器学习方法的分类

今天主要介绍一下机器学习里面的几个基本概念,我刚开始学的时候,比较纠结的几个概念,主要有监督学习,无监督学习,半监督学习, 深度学习, 还有强化学习,强化学习是...

3245
来自专栏机器之心

荐号 | 如何优雅地读懂支持向量机SVM算法

3206
来自专栏PPV课数据科学社区

贝叶斯、概率分布与机器学习

一. 简单的说贝叶斯定理: 贝叶斯定理用数学的方法来解释生活中大家都知道的常识 形式最简单的定理往往是最好的定理,比如说中心极限定理,这样的定理往往会成为某一个...

35510
来自专栏机器之心

学界 | Bengio最新论文提出GibbsNet:深度图模型中的迭代性对抗推断

3716
来自专栏机器之心

蒙特利尔大学开放MILA 2017夏季深度学习与强化学习课程视频(附完整PPT)

机器之心整理 参与:黄小天、蒋思源 2016 年,Aaron Courville 和 Yoshua Bengio 组织的 MILA 深度学习夏季课程获得了极大...

36512
来自专栏肖力涛的专栏

NLP 点滴 :文本相似度 (下)

在自然语言处理过程中,经常会涉及到如何度量两个文本之间的相似性,我们都知道文本是一种高维的语义空间,如何对其进行抽象分解,从而能够站在数学角度去量化其相似性。

7782
来自专栏机器学习算法与Python学习

Deep Learning(1) -- 概述、分布式表示与思想

绪论 深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的...

5297
来自专栏达观数据

课堂总结 | 达观数据文本挖掘负责人分享文本分类方法和应用案例

新媒体管家 自然语言处理(NLP)一直是人工智能领域的重要话题,而人类语言的复杂性也给NLP布下了重重困难等待解决。随着深度学习(Deep Learning)的...

5836
来自专栏大数据挖掘DT机器学习

数据分析方法——因子分析

1 问题 之前我们考虑的训练数据中样例 ? 的个数m都远远大于其特征个数n,这样不管是进行回归、聚类等都没有太大的问题。然而当训练样例个数m太小,甚至m...

3066
来自专栏机器之心

为什么XGBoost在机器学习竞赛中表现如此卓越?

2575

扫码关注云+社区