首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

你的“脸”还安全吗?

人脸识别解决了部分政务、交通、医疗等证明“操作者是本人”的问题,但也因此带来了新的安全风险:

一是存在虚假安全风险

二是存在信息泄露的风险

三是用户生物信息被过度索取风险

四是被不法利用的风险

国内的AI换脸灰色产业链已浮出水面

“生物识别信息不可更改,所以在使用上还是需要一些强制性的规定和更加严格的管控。”

如何确保应用系统采集的照片、身份信息等用户数据不被盗用或滥用,成为亟待解决的问题

文/《瞭望》新闻周刊记者 张璇 朱涵

近日,一款名为ZAO的APP“火”了,不少人跃跃欲试,在实现与明星“换脸演戏”的同时,由此产生的隐私权、肖像权、信息安全等问题也引起广泛热议。

9月3日,针对媒体公开报道和用户曝光的ZAOAPP用户隐私协议不规范、存在数据泄露风险等网络安全问题,工业和信息化部网络安全管理局对北京陌陌科技有限公司相关负责人进行了问询约谈,要求开展自查整改。

有专家指出,ZAO事件无疑是人脸识别技术发展中一个极具代表性的事件,它的意义在于,让更多人关注了个人生物信息安全。

在刷脸已经无处不在的当下,你的脸还安全吗?

刷脸时代的自我觉醒

8月31日,“换脸”小视频在杭州白领章先生的朋友圈开始“刷屏”,章先生下载了这款ZAO APP。按照提示,他拍了一张清晰的自拍照,上传照片后,点击制造视频,8秒左右就生成了作品,“觉得很有趣,过了一把戏瘾”。但同时他也犯了嘀咕,“我的脸被软件保存了吗?”“脸部信息会泄露吗?”“泄露以后脸还安全吗”……带着这些疑问,他立马将软件里制作的视频全部删除,因为担心这次“尝鲜”会给未来的生活带来后遗症。

从“一夜火爆”到“一片质疑”,ZAO只用了一天。9月1日,ZAO官方团队回应“十分理解大家对隐私问题的担忧,考虑不周的地方会去改”。9月3日回应外界最关心的两大问题:ZAO不会存储个人面部生物识别特征信息,使用ZAO不会产生支付风险。

工信部网络安全管理局9月3日要求北京陌陌科技有限公司,严格按照国家法律法规以及相关主管部门要求,组织开展自查整改,依法依规收集使用用户个人信息,规范协议条款,强化网络数据和用户个人信息安全保护。该局还表示,将进一步加大工作力度,指导督促相关企业切实履行法律责任,认真做好网络数据和用户个人信息安全保护、行业电信网络诈骗防范治理等工作。

事实上,人脸识别技术正在不断突破各个行业应用的“阈值”,带来日趋丰富的应用场景。中商产业研究院发布的《2019年生物识别行业市场前景研究报告》称,据测算,2018年我国人脸识别行业市场规模突破100亿元大关,预计2019年其市场规模在120亿元左右,生物识别市场前景十分广阔。

网络安全企业奇安信集团副总裁左英男表示,公众对个人隐私信息安全的关注,体现了人们进入“刷脸时代”自我觉醒和安全意识的提高。就支付领域安全问题来说,目前人脸识别和身份认证商用产品方案不仅仅依赖于静态的人脸图像,大多还附加了活体检测技术、多因子认证技术或基于风控的隐式认证技术,来保证“我就是我”,因此,绝大多数场景的“刷脸”应用是安全的,公众不必过于担心。

“刷脸”的四大风险

人脸识别解决了部分政务、交通、医疗等证明“操作者是本人”的问题,但也因此带来了新的安全风险。

一是存在虚假安全风险。华为安全领域专家告诉《瞭望》新闻周刊记者,仅就技术本身而言,生物识别具有防伪性能好、私密性强、随身“携带”等优点,是一种更安全的技术。

浙江大学计算机学院人工智能研究所教授李玺认为,从目前技术看,脸部和声音都可以在技术上实现辨伪。尤其是人脸识别技术已经很成熟,伪造的人脸视频在放大5-10倍下观看,可以发现脸部没有生物特征,立体、纹理属性都不具备,极易鉴别。但“人脸识别”等生物识别技术如果仅凭“我的特征是什么”这一个因素,很容易被攻破或利用。如,从物理层面上,它可能会因为个人数据被滥用而被恶意“复制”;技术层面讲,现有技术还需要更多安全验证,才能被进一步推广。

二是存在信息泄露的风险。2019年2月,深圳某一做人脸识别的公司发生数据泄露事件,超过250万人的核心数据可被获取,680万条记录泄露,其中包括身份证信息,人脸识别图像及GPS位置记录等。“所有个人的信息都没有生物信息那么重要。”左英男表示,如果生物信息被盗取,结合最新的3D打印技术,就可能在现实生活中被冒充。

三是用户生物信息被过度索取风险。ZAO事件中,其用户协议被质疑过度攫取用户个人信息,且有“霸王条款”之嫌。例如第一版用户协议中,提出“用户须授予ZAO完全免费、不可撤销、永久、可转授权和可再许可的权利,包括但不限于:人脸照片、图片、视频资料等肖像资料……”的内容,多数网友在不仔细阅读用户协议下,就把自己的人脸生物信息“拱手送人”了。

四是被不法利用的风险。例如换脸软件被用来制作名人的色情视频。《卫报》称此类软件为“对未来可怕的一瞥”,显示了对人工智能未来可能造成的伦理问题的担忧。

国内的AI换脸灰色产业链已浮出水面。网络平台上,售卖明星换脸视频、提供视频定制换脸服务等成为一门生意。

该如何“自救”

事实上,人脸识别技术的快速发展,也正是在千百万次训练中成长起来的。据业内透露,如此庞大的数据,有些可能是消费者在不知情的情况下透露给厂商的,有些则很可能是厂商从某些渠道买来的。受访专家普遍认为,生物信息一旦泄露,造成的影响不可估量,用户隐私安全亟待保障。

在中科院智能信息处理重点实验室常务副主任山世光看来,人脸识别技术近几年确实取得了突破式进展,完成了一些以前“不可能完成的任务”,而这种“识别能力”的提升与大量人脸数据上的训练密不可分。尽管严格控制深度学习等算法、训练过程并不会直接导致用户隐私数据泄露或滥用,但越来越多人脸识别应用系统在各行各业部署,用户肖像权和隐私保护越来越值得关注。如何确保应用系统采集的照片、身份信息等用户数据不被盗用或滥用,成为亟待解决的问题。

“生物识别信息不可更改,所以在使用上还是需要一些强制性的规定和更加严格的管控。”北京炜衡(成都)律师事务所一级合伙人李昆蔚表示,随着技术的发展,很多本处于灰色地带的问题也逐渐暴露,个人隐私如何界定、肖像权如何保障、生物识别信息如何安全使用,相关条例散落在多个法律法规中,亟待加快专项法律的立法进程。此外,生物识别安全标准、身份验证等安全规范仅属于推荐性标准,尚无强制性的法律法规。

目前,欧盟已出台严格的隐私保护法规《通用数据保护条例》,其中将个人信息视为“个人所有权”,个人有权决定数据的使用;该条例进一步明确了删除权,还开创性地引入被遗忘权。美国旧金山市、萨默维尔市,也通过法令禁止公共场所使用面部识别软件。

专家认为,我国也应尽快出台个人信息数据保护法。

一是扩大个人信息保护范围,包括生物信息;

二是明确个人生物信息保护的责任主体。确立“谁收集、谁保护;谁泄露,谁担责”的基本原则,由信息收集者承担绝对的保护责任;

三是明确赔偿标准或责任承担方式,对因信息被泄露遭受的直接财产损失,受害人可以直接向泄露人索赔,提高惩罚力度,让企业不敢怠慢。LW

刊于《瞭望》2019年第36期

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190907A0DYYF00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券