好事发生
这里推荐一篇实用的文章:https://cloud.tencent.com/developer/article/2467267?shareByChannel=link
《腾讯IMA:AI智能工作台的革命性创新》
这篇文章深入解析了IMA Copilot的功能和应用场景,并通过与OpenAI Canvas的对比,帮助读者更好地理解不同AI写作工具的特点。对于关注AI技术在内容创作领域应用的读者而言,本文提供了有价值的参考。
2024年5月,首尔大学毕业生朴某和姜某被指控自2021年7月至2024年4月期间,利用Deepfake技术合成并传播色情照片和视频,受害女性多达61人,其中包括12名首尔大学学生。
随着调查深入,发现类似的犯罪行为在韩国广泛存在。多个Telegram私密聊天室中,用户利用Deepfake技术制作并分享虚假色情内容,受害者包括女高中生、大学生、白领,甚至未成年人。据报道,受害人数高达22万人,涉及200多所学校。
犯罪者使用Deepfake技术,将受害者的面部图像合成到色情视频或照片中,生成高度逼真的虚假内容。这些内容在网络上广泛传播,给受害者的生活和心理带来严重影响。
韩国多次发生的N号房事件,本质上就是利用AI换脸技术进行作恶的事件。本质上这种技术其实目前来说不算新鲜。
在2019年的时候,国外有人上线了一个“一键脱衣”应用DeepNude,还宣称技术无罪。

但是仅仅不到一周的时间,其就面临着巨大的道德争议,这款软件的开发者选择了将它下架。从我个人角度来看,不管是什么技术,本质上还是不能够损害人类的利益,而不是通过宣称技术无罪来牟利。
从实现角度去看,这种软件其实技术上实现不难。本质上就是利用了图像修复技术,把人的衣服去掉然后再还原。那么只要知道原理,我们就可以很好的进行对抗。
AI去衣很多技术方案,其实都来自于《Image Inpainting for Irregular Holes Using Partial Convolutions》中提出的图像到图像技术。
这个技术就是把马赛克过的图像进行重新修复,其本质上就是根据马赛克附近的图像进行相似匹配,来还原与图像一致性较高的像素块。

不仅仅可以修复环境,也可以修复人物等等:

如果把这个技术用在“去衣服”上,就是把衣服马赛克后进行的还原。那么我们就可以利用对抗样本技术,可以在原始图像中加入人类肉眼不可见的噪声,干扰去衣模型的识别和生成过程。例如,生成扰动使得模型无法正确判断衣物区域或生成合成图像。
这个生成扰动的方法,具体要怎么生成,业界其实有很多中方法,这里不过多赘述。
但话说回来,这次的韩国N号房事件也提醒着我们每一个人,在日常生活中需要更加关注自身的隐私问题,在互联网上发布自己的图片其实是比较危险的,不排除有心人会用你的图片做什么坏事情。
所以从源头上来说,少发一些涉及自身隐私问题的信息在网上,这样才能更好的保护自身,从而不会那么轻易的让非法分子进行利用。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。