法学 deepfakes porn的问题

深度拟真形象,也就是deepfakes,是基于"大数据"和人脸识别技术发展而来的一种娱乐业副产品——利用高级的数据算法(机器学习)和海量的人脸数据库,把一些色情电影中的演员面孔替换成现实中的名人明星脸,创造出的一种"船新版本"的Adult Video。

Deepfakes的"受害者"包括盖尔加朵、斯嘉丽约翰逊、赫敏、以及Gakki新垣结衣等著名偶像。

(deepfakes效果图一张,女神的名字大家都知道)

前段时间,著名的开车网站Pornhub突然宣布,将彻底移除其网站上的所有deepfakes porn,一时间各国老司机哀嚎遍野——但好消息是,没多久就有人放出了deepfakes算法的代码,并且在github上建立了开源项目。

这事情一下子复杂起来。

色情业作为纯粹的消费娱乐业,对法律风险向来是非常敏感的,比如日本本土发行的AV要被日本伦理审查协会(JEJA)等部门监管,并且都要打码,开头是FBI warning的重口味无码片反倒是面向国际社会的;此次Pornhub下架deepfakes系列,主要原因也应该是无力面对潜在的侵权风险。

具体而言,deepfakes porn除了存在侵犯当事人的名誉权、肖像权、特定AV小电影的版权等法律风险外,还有可能的更为严重的社会后果——明星自身形象的贬值和其附带商业价值的缩水。这些社会风险,看起来和多年之前Photoshop换脸黄图差不多。

但deepfakes porn的法律属性之复杂,远不止这些。深度拟真形象在机器学习算法和各类超级数据库的支持下,对某一特定形象的拟真,可以是全方位的,理论上从形象到动作、声音都可以做到以假乱真的效果。换句话说,deepfakes具有低门槛、高拟真、多媒体的技术特征,和强大的传播力(互联网媒体产业链的支持)。

而尽管现在整容技术发达,偶像明星可以依照市场需求自行"创造"符合潮流的宣传形象,但在民法层面上,其无法对自身的形象获得类似作家之于作品的专属财产权性质的"著作权",而只能以法理位阶较低的"公序良俗"为基础,获得对自身形象的人格权救济。

因此deepfakes porn的法律属性冲突,实际上是个体人格权的法理位阶和财产权位阶之间的冲突。一个懂一点基础编程的技术宅,可以在几小时内制作一份"新垣结衣"的AV,但Gakki酱收集证据并进行针对性诉讼的成本极高,即便其经纪公司有雄厚的资本实力,也很难在此类诉讼中获得很大的反侵权收益。

如果说深度拟真形象只用来制作AV,无论是针对明星也好,针对普通人也好,好歹法律和伦理风险某种程度上是可以预估的;但众所周知(并不),"形象"和"话语"作为媒体传播中的"元文本",其原始文本的价值,是非常重要的,尤其是在各类公共宣传和社会活动中。利用deepfakes或者类似的技术伪造名人言论,或者在交易中制作虚假承诺,或者干脆以娱乐为名发布各类假新闻,其造成的社会风险,完全取决于特定语境中参与方的纠错能力。

这一潜在风险,基本是不可预估的。比如一个deepfake-Trump突然宣布要对某国进行核打击,信息很快就会被纠错,因为Trump不是唯一的话事人,因此不会引发过度反应,但在某些信息不通的状态下,这一类的fake news造成的后果可能是非常严重的社会恐慌——更糟糕的,不是向社群中的普通大众发布某些假消息,而是向社群中的特定对象发布类似的消息,如果这一特定对象掌握了某些关键权力,其行为后果甚至可能是灾难性的。

那么,如何在现有的法律通说范畴内,对深度拟真形象一类技术的潜在风险进行规制呢?

本质上来说,这取决于特定社群内自发的信息过滤和净化机制,如果说信息流类似江河湖海,有一定的自我净化能力,那么法律本身是不需要太多直接干预的;但如果信息流动被人为阻隔,或者刻意污染,那么其社群个体的信息纠错能力会因缺乏比对信息来源而降低,导致即便存在针对这一行为的严刑峻法,也不能有效阻滞其技术化的社会风险。

在比较实用的层面上,民事立法中可以考虑对公众人物的商业形象赋予特殊的类似"著作权"的专有产权,这样虽然有违自然法原则,也不人道,但是起码有关部门可以名正言顺的收"整容税"了。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180406G0397Y00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注腾讯云开发者

领取腾讯云代金券