首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

深度学习入门之PyTorch学习笔记#10

对抗生成网络(GAN),其实嘛,就是两个神经网络,一个用于判断数据是真实的数据还是另一个网络自己生成的,而另一个网络的目标就是生成假的数据来欺骗第一个网络

今天按照书里的练习,写了一个简单的GAN,判别网络和生成网络都使用了三层卷积层,对MNIST数据集学习生成书写数字图像。MNIST数据集实际上又0~9共10个种类的图像,把原始数据都标记成真数据,把生成网络生成的数据都标记成假数据,有一点这里自己没有研究过,就是对于生成网络来说,0~9这几个数字是否当中某几个数字更容易欺骗判别网络?如果是这样的话,在评价的时候,就会收到随机生成的初始噪音的影响了吧?

这是第1次迭代生成的图片

这是第30次迭代生成的图片

这是生成模型的Loss曲线,整体是震荡下降的,不过不知道为啥第16代的Loss最低之后就再也没有下降到那么低?

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180227G0E0KI00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券