本文为 AI 研习社编译的技术博客,原标题 : StarGAN — Image-to-Image Translation 作者 | Pranoy Radhakrishnan 翻译 | tobepellucid 校对 | Pita 审核 | 酱番梨 整理 | 立鱼王 原文链接: https://towardsdatascience.com/stargan-image-to-image-translation-44d4230fbb48
通过输入来自两个不同领域的训练数据,StarGANs模型可以学习将某一个领域的图片转换成为另一个领域。
例如,把一个人的发色(属性)从黑色(属性值)转换成棕色(属性值)。
我们把领域定义为拥有相同属性值的一系列图片。黑色头发人群是一个领域,棕色头发人群则是另一个领域。
这里的判别器有两个任务:
辅助分类器的作用是什么?
有了辅助分类器,判别器能够学习到原始图像的映射以及它在数据集中所对应的领域。当生成器产生一张指定目标领域c(比如棕色头发)的新图像时,判别器可以预测所产生的图像的领域。因此生成器会产生新图像直到判别器给出对应的目标领域c(棕色头发)的预测为止。
判别器的损失函数
这里的生成器有三个目标:
生成器的损失函数
CelebA. 名人脸部属性(CelebA)数据集包含了202,599张明星的脸部图像,每张都被标注了40个二分类属性。
拉德堡德脸部数据库(RaFD)由收集自67位参与者的4,824张图像组成,每位参与者在三个不同的注视方向上做了八种脸部表情,拍摄于三个不同的角度。
StarStarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation