前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >你见过GAN的失败案例有多蠢吗

你见过GAN的失败案例有多蠢吗

作者头像
刀刀老高
发布2019-05-17 14:26:15
2K0
发布2019-05-17 14:26:15
举报
文章被收录于专栏:奇点大数据

GAN——Generative Adversarial Network,是在深度学习界出现比较晚的一类训练方式。叫做对抗生成网络,也被简称为对抗学习。

在这种训练模式下,我们会同时训练两个网络,一个用来判别样本的“真伪”——Discriminator网络,一个用来通过噪声捏造一个样本——Generator网络。最后我们希望通过训练让Generator网络生成的样本中有一半的概率能够被Discriminator网络识别为真,或者称生成能够以假乱真的样本。如果有太大比例的生成样本通过了Discriminator网络的检验,则说明Discriminator网络的判别能力还相当差;反之,则说明Generator的生成能力相当差。

这种场景就好像我们设计了一个世界范围内的乒乓球比赛,两个水平高的人同台竞技。比分基本是应该在11:9这种档次的才算是势均力敌,两者水平很高;11:1、11:2这种的就太悬殊了,至少不能说明失败的选手水平与胜利的选手水平相当。

基于这种理论,在世界范围内有数以万计的人在尝试对这种训练模型进行增强,并通过发论文的方式来表现出自己训练出来的Generator网络有多么强的生成能力。例如:

这就是凭空捏造出来的人脸,它不属于任何一个由照相设备采集的真实个人。

再比如上面这种图,把普通的马给捏造成斑马,或者反过来操作;或者把一副风景画从夏天的样子变成冬天的样子,或者反过来操作。

网上处于各种目的对GAN方式歌功颂德的软文很多,总是用各种惊艳的内容来给我们冲击感。不过只要亲自训练过GAN的人都知道,GAN生成的样本中,虽然是有一半可以通过Discriminator网络的检测,但是就这一半而言仍然不能保证里面的内容是好的。由于深度神经网络本身的“缺陷”(或者叫局限性措辞更温和一点)的问题,本身就会有一些在人看来一眼就能识别出的东西,会被它误判。比如就像下面这种情形,在图片上掺杂一些噪声,就会被神经网络误判为别的物体。

所以,GAN这种方式所产生的“意外”其实相当多,而且到目前为止还没有找到非常可靠的克服手段,我们就盘点一下GAN领域的各种“惨案”吧。

就拿前些日子吵得很火的这个由AI生成的被拍出43.2万美元的画作来说吧。

如果不是右下角写了GAN的评价函数

鬼才能知道这是什么玩意儿。不通过50%以上的脑补环节,你确定这是一个人?

还有上面这一坨一坨的稀饭,恕我实在没办法理解这种用GAN生成的艺术。我还是以善意的态度来揣测这次拍卖,是对人工智能技术的鼓励,而不是不怀好意的韭菜大棚众筹。

你觉得像鸟是吧?请告诉我,你用了几分力气脑补?这么模糊的鸟类,生成出来也无法商用吧?估计就是“视觉中国”也没胆量用这种质量的图片收钱。

再比如这种很像大象的东西,说实在的是有点像连体婴儿大象,而且鼻子也很奇怪……

一个在野外骑独轮车的家伙?好像是……然而这种图给小朋友们看是会伤害他们幼小的心灵的。

这个你看上去觉得还不错是吧?

放大了看一样惊悚啊——两个头的金鱼,黄金眼的猫咪,完全看不出纹理走向的墙壁,真是只可远观。

可怕的是,这种事情GAN网络自己是无法感知到的。想让GAN生成让人放心的内容还有很多路要走,无论是学术层面还是工程层面,都有很多问题需要不断解决。所以,GAN这个方向暂时先流程学术界当玩具好了,做产品的人们还是先用靠谱的方法做好手里的产品。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-05-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 智能工场AIWorkshop 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档