前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习会议论文(一)AutoGAN-Distiller

机器学习会议论文(一)AutoGAN-Distiller

作者头像
千与编程
发布2023-04-28 13:39:20
2830
发布2023-04-28 13:39:20
举报
文章被收录于专栏:公众号:千与编程

一. The address of paper AutoGAN-Distiller:Searching to Compress Generative Adversarial Networks 这篇论文是ICML2020的一篇文章,其研究方向是GAN网络的模型压缩 论文地址: https://arxiv.org/abs/2006.08198

二. The introduction of paper 文章中在开头abstract中就写到GAN的模型较大,不适合应用于移动设备的部署,因此对GAN的模型压缩办法,引起了广泛的注意。在论文中使用AutoML与知识蒸馏结合的办法进行GAN网络的模型压缩,研究出的AGD方法,一种自动独立的GAN网络压缩方法。广泛应用于图像风格迁移与超分辨率领域中。再此篇文章中使用cycleGAN,与pix2pix网络模型进行对消融对比实验论证 三. The related work of paper 1.GAN 模型 GAN,(Generative Adversarial Networks )生成对抗网络,模型中包括生成器和判别器,两个网络模型 G是一个生成图片的网络,它接收一个随机的噪声z,通过这个噪声生成图片,记做G(z) D是一个判别网络,判别一张图片是不是“真实的”。它的输入参数是x,x代表一张图片,输出D(x)代表x为真实图片的概率,如果为1,就代表100%是真实的图片,而输出为0,就代表不可能是真实的图片

GAN网络模型广泛应用于图像风格迁移,去雾,去雨等图像处理生成领域。显而易见,由于两个卷积(反卷积)网络模型,网络结构很深,难以部署于移动设备。 2. 知识蒸馏

知识蒸馏,通过模仿前者生成的软标签,将知识从一种模型转移到另一种模型。它通过拟合由预训练的大型模型生成的软标签而被广泛用于学习紧凑型网络,因此压缩后者。 四. The model and experienment

本篇论文的方法中通过AutoML,与知识蒸馏进行pretrained model 的模型结构的search ,并且进行模型量化减小模型的尺寸,加快推理速度,部署于移动设备。具体训练步骤参考文中training details 利用知识蒸馏的特性不断更新迭代预训练的生成器模型达到模型压缩的目的。paper中进行对比消融实验,针对图像风格迁移的应用,文中使用cycleGAN的原始模型,对其memory与FID性能指标进行列举。 FID 分数被用于评估由生成性对抗网络生成的图像的质量,较低的分数与较高质量的图像有很高的相关性。 同时包括实际设备上的帧率延迟以及硬件的推理速度生成网络的Flops

本文的CycleGAN也是执行了四个dataset,horse2zebra, zebra2horse, summer2winter, winter2summer,性能指标的示意图,如下图所示

Super resolution 的部分,本人没有进行复现,感兴趣的读者可以自己动手试一试,看看模型压缩后的图像处理效果。 以下是我测试的官方paper效果以外的几张图片,我使用的是sum2winter,夏季冬季风格迁移,推理速度明显加快,且风格迁移效果也很好。

AI学习的道路上,一起学习进步~

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-07-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 千与编程 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档