前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >卡内基梅隆大学开发新型AI系统,生成视频能以假乱真

卡内基梅隆大学开发新型AI系统,生成视频能以假乱真

作者头像
AiTechYun
发布2018-09-26 10:35:06
8800
发布2018-09-26 10:35:06
举报
文章被收录于专栏:ATYUN订阅号ATYUN订阅号

编译:chux

出品:ATYUN订阅号

有没有听说过“deepfakes”?用AI生成的视频会将一个人的脸部叠加到另一个人的身体上,这些视频已被用于无数电影剪辑中,以及更具恶意的目的,如假名人宣传。现在,无论好坏,卡内基梅隆大学的研究人员开发出了一种比以前的尝试更强大,更为通用的新AI系统。

它被称为“Recycle-GAN”,团队将其描述为“无监督的,数据驱动的方法”,用于将一个视频或照片的内容传递到另一个视频或照片。“这样的内容翻译和风格保存任务有很多应用,包括人体运动和面部翻译,用人类演示教授机器人,或者将黑白视频转换为彩色。”

到目前为止,大多数最先进的转移技术都针对人脸,研究人员称这些技术“缺乏对其他领域的概括”和“应用于遮挡面部时失败”。其他则依赖于配对的图像到图像的翻译,这需要手动进行数据标记和对齐。

相比之下,Recycle-GAN利用条件生成对抗网络(GAN)和“时空线索”来学习两个图片或视频之间的关联。(GAN是由两部分模型组成的,它通过从输入数据中产生越来越逼真的输出来试图“欺骗”鉴别器。)当训练人类主体的镜头时,它能够生成捕捉微妙表情的视频,比如微笑时形成的酒窝和面部表情的动态。

团队表示,“在没有任何人工监督和特定领域知识的情况下,我们的方法通过网络上公开可用的视频数据,从一个领域到另一个领域进行重新定位。”

Recycle-GAN不仅可以捕捉面部动态。研究人员使用它来修改视频中的天气状况,将无风的日子转变为刮风的日子。他们对着鲜花和垂死的花朵进行了对齐,他们通过网络上的视频合成了可以以假乱真的日出。

视频内容

结果非常好,可以以28.3%的几率欺骗15名测试对象,但团队认为,如果他们学会了“生成输出”的速度,就像人们说话的不同速度一样,系统的未来可以更加准确。

“真正的风格概念应该能够产生甚至是传递语音/内容所需的时间变化,我们相信更好的时空神经网络架构可以在不久的将来解决这个问题。”

不出所料,deepfakes仍然是一个热门话题。公开可用的工具使它们相对容易创建,并且对于恶意AI生成的视频的受害者没有法律追索权。

Reddit,Pornhub,Twitter和其他平台采取了反对他们的立场,研究人员继续寻找检测deepfakes的方法。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-08-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 ATYUN订阅号 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档