前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >学界 | 新研究提出内省式学习方法:在分类和生成任务上均表现卓越

学界 | 新研究提出内省式学习方法:在分类和生成任务上均表现卓越

作者头像
机器之心
发布2018-05-07 15:16:01
8590
发布2018-05-07 15:16:01
举报
文章被收录于专栏:机器之心机器之心

选自arXiv

机器之心编译

参与:吴攀

生成对抗网络(GAN)是近来人工智能研究的一大热门,在生成逼真的样本上已经取得了非常优异的表现。但这并不是唯一的生成方法,近日,来自加州大学圣地亚哥分校计算机科学与工程系和认知科学系的几位研究者连发两篇论文,介绍了一种被称为内审(introspection)的方法,并且在分类和生成的实际实验上都取得了出色的表现。机器之心对这两篇论文进行了摘要介绍。

论文一:内审式分类器学习:生成式地使能(Introspective Classifier Learning: Empower Generatively)

  • 链接地址:https://arxiv.org/abs/1704.07816

在这篇论文中,我们提出了内省式分类器学习(ICL:introspective classifier learning),其强调了有一个具有生成能力的判别式分类器的重要性。我们开发了一个通过合成的再分类(reclassification-by-synthesis)算法来使用一种源自贝叶斯理论的公式进行训练。我们的分类器能够迭代式地做到:(1)在合成步骤中合成假负例样本(pseudo-negative sample);(2)在再分类(reclassification)步骤中通过提升分类来增强自身。学习到的单个分类器同时也具有生成能力——能够在自己的判别模型内直接合成新样本。我们使用当前最佳的 CNN 架构在标准的基准数据集(包括 MNIST、CIFAR 和 SVHN)上进行了实验,并观察到了分类结果的提升。

图 1:(Tu, 2007) 中开发的 GDL 方法的流程图(图示为一个简单示例),展示了通过一个判别分类器的序列使用自我生成的假负例样本来训练一个生成模型的方法。

图 2:我们提出的用于 ICL 训练的通过合成的再分类(reclassification-by-synthesis)算法的示意图。左上图展示了输入的训练样本,其中红色圈表示正例,蓝色十字表示反例。底部图是合成步骤中由分类器逐渐自我生成的样本,顶部图给出了决策边界(紫色),其在再分类步骤中逐渐更新。假反例(紫色十字)是逐渐生成的,可帮助增强决策边界。我们仅维持了一个单个 CNN 分类器,而不是在 GDL 中具有多个 boosting 分类器(参见图 1)

算法 1:用于判别式分类器训练的通过合成的再分类(reclassification-by-synthesis)算法

图 3:我们的 ICL 分类器为 MNIST 数据集合成的假反例。顶行给出了一些训练样本。随着 t 增加,我们的分类器会逐渐合成对训练样本越来越真实的假反例

图 4:使用通过合成的再分类算法的 ICL 在 MNIST 上的测试误差,随训练过程的 t 变化

图 5:不同训练样本数量下的 MNIST 测试误差(也给出了测试误差的 std dev.)。当训练样本数量更少时,ICL 的影响更明显

图 6:在使用「快速梯度符号法」(Goodfellow et al., 2014b) 所生成的额外对抗样本上的验证,以显示 ICL 的稳健性的提升。第一行给出了原始的图像,第二行展示了扰动,第三行给出了得到的对抗样本。所以这些样本都骗过了基线 CNN 模型,后两列的骗过了 ICL

论文二:内审式生成建模:判别式地决定(Introspective Generative Modeling:Decide Discriminatively)

  • 链接地址:https://arxiv.org/abs/1704.07820

我们通过开发内审式生成建模(IGM:introspective generative modeling)而对无监督学习进行了研究,其使用渐进式学习到的深度卷积神经网络而实现了一个生成器。该生成器本身是一个判别器,能够内省(introspection):能够自我评估其生成的样本和给出的训练数据之间的差别。当后面跟随着重复的判别式学习时,现代判别式分类器的预期性质直接被生成器继承。IGM 使用一个通过分类的合成算法(synthesis-by-classification algorithm)来学习一个 CNN 分类器的级联。在实验中,我们在许多应用上都观察到了鼓舞人心的结果,其中包括纹理建模、艺术风格迁移、面部建模和半监督学习。

图 1:上面展示了 2 个 64×64 假反例样本(patches)在训练过程中的发展,其生成的是树皮纹理。我们可以看到最初的一团乱麻,后来被网络优化。输入的树皮纹理和我们的 IGM 算法合成的图像展示在下面

图 2:纹理合成算法的比较。Gatys et al. [14], Texture Nets [41], Portilla & Simoncelli [32], DCGAN [33],结果来自 [41].

图 3:IGM 流程的示意图。顶部图展示了输入的训练样本,用于红色圈表示。底部图表示学习到的最终模型绘制的假反例样本。左边图展示了在每个时间戳 t 绘制的假反例。右边图展示了在每个时间戳 t 时 CNN 在训练样本和假反例样本上的分类

算法 1:IGM 算法

图 6:更多纹理合成的结果。Gatys et al. [14] 和 Texture Nets,结果来自 [41].

图 7:使用《Starry Night》和《Scream》的风格在阿姆斯特丹照片上实现的艺术风格迁移的结果

图 8:在 CelebA 名人数据集上学习后生成的图像。从左到右分别是 DCGAN [33],使用 TensorFlow 实现 [23]、IGM-single 和 IGM 的结果

本文为机器之心编译,转载请联系本公众号获得授权。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-04-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档