首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

别再掉入算法陷进!揪出你背后的那个Ta

相信大家都有这样的经历:

开车上路时,手机会贴心地发送位置信息以及速度,然后结合实时交通信息提供最佳路线,从而避免堵车;一旦在短视频平台点赞了某视频,首页和推荐就雨后春笋般冒出各式各样的相同类型的短视频;在A软件搜索了去某地的机票,切换到B软件之后,马上就有住宿酒店的广告占据了首页……

是的,现在的手机已经比人们更懂自己了,而让手机拥有这个能力的,正是“大数据”以及人工智能加持下的“精准化推荐”。数据与智能作为一对相辅相成的“冤家”,AI需要大量的数据进行训练和学习,以此为人们提供更精准的服务,而数据也要通过AI来体现它的价值。只不过,稍有不慎就会踩到“隐私陷阱”。

无处不在的大数据

基于大数据的个性化推荐已屡见不鲜,似乎只要数据维度和量级足够丰富,AI对其的价值挖掘就会用之不竭。数据让AI有了应用价值,如Facebook会利用AI来预测用户的未来行为,作为广告投放的依据,所参考的信息包括:位置、设备信息、图片/视频浏览记录、WiFi连接状态、好友关系、聊天内容等等。然而,要想找出背后的关联性,就要对人与人、人与物、物与物之间数据“神经元”进行分析,但这并不容易,尤其是在人均管理的数据量呈现指数及增长的时候。

事实上,有超过70%的企业客户宣称正在组织内部使用AI技术。考虑到部署成本,多数企业在智能化初期会选择外部方案。随着AI与业务结合逐级深入,企业关注的重点也从提升效率渗透到流程决策管理层面。也就是说,AI不再是简单的工具,而是开始向生产力转变。

日常生活中,数据的类型大体可分为结构化数据、非结构化数据、半结构化数据。一个数据从产生到落地要经过收集、传输、分析、检索、挖掘等阶段。分析让大量的数据有了价值,机器要学会像人一样学习、思考、推理、交流,进而与应用场景相结合,从规律中预测未来。

但是就在人们享受个性化服务的时候,是否关心过背后是否合规呢?GDPR的出现无疑给人们上了课。近日,某家IT公司被指在没有获得用户许可的情况下,在社交网站上捕捉了百万张照片,并将其用作人脸识别算法的训练模型,对面部五官、头部特征等近50个标记进行了分析。这种做法的好处不言而喻,科技公司可以帮助行业客户拿到更准确的信息,例如让零售商了解消费者的商品喜好、购买时间,甚至是识别出特定的某个人。

类似的情况在物联网场景中也有应用,如智能音箱对用户语音语义的收集、无人驾驶系统对行进路线的采集等等,人们除了要在数据合规的基础上,开放更多的数据源,还要借助区块链等新技术或手段为这些数据建立完善的审核机制。再比如Facebook,会利用AI来预测用户的未来行为,作为广告投放的依据,所参考的信息包括:位置、设备信息、图片/视频浏览记录、WiFi连接状态、好友关系、聊天内容等等,让人们就像是生活在真空中。

显然,这种方式对用户隐私是不友好的,而用户本人并没有选择权。更需要引人深思的是,用AI在互联网的每个角落去挖掘数据,并把这些数据扔到机型学习模型里贴上标签供研究人员使用。在GDPR颁布之后,包括Facebook在内的多家IT公司都遭到了重罚或警告。

值得一提的是,美国参议院早已在讨论是否要通过新的法案,限制科技公司利用技术手段获取的用户信息不能用于某些用途,也就是说商用的图像识别应用不能用来定位和追踪用户信息。更重要的是,用户必须知情且同意后才能让数据共享给第三方。

掌握用户信息之后的AI系统可能比用户更了解自己,他们会知晓用户的饮食习惯、锻炼情况、身体变化等等,而且将碎片化的数据拼凑成分析系统就能对人形成整体的特征描述。特别是在越来越多的政企类客户走上云端之后,居民隐私的问题就被上升到了新的层面。

互联网时代的快节奏让数据跑在快车道上,在这个数据无处不在的时代,“出卖”隐私换取服务似乎变成了服务提供商的主要选择,用户也多为被动接受,或者根本不知情。但是在人们享受技术红利的时候,还是应该注意到隐私的重要性,不应该只研发和利用AI技术,还有责任更好地正确运用AI技术,拿数据当本钱的AI,要走上正途。

而即将于今年11月正式实行的《中华人民共和国个人信息保护法》(即《个人信息保护法》),则标志着中国互联网也进入了新的数据监管时代。

《中华人民共和国个人信息保护法》

根据《个人信息保护法》第四十五条,对传统的查阅复制权进行扩张,增设有限的可携带权,即“个人请求将个人信息转移至其指定的个人信息处理者,符合国家网信部门规定条件的,个人信息处理者应当提供转移的途径”。在此条例的保护下,不仅让个人信息跨平台转移将有法定依据,还有利于打破平台封禁,有效回应大型互联网平台“数据垄断”现象,促进信息流通。

而针对大型互联网平台以歧视性定价为主要表现的“大数据杀熟”现象,《个人信息保护法》进一步明确,“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。”大数据杀熟现象与数据使用行为直接相关,但其规制并不限于数据使用环节。差别待遇的合法前提覆盖使用管理、用户告知、结果公平、合规评估,否则就是对个人信息的侵犯。

不仅如此,《个人信息保护法》明令要求不得过度收集个人信息、收集和处理个人信息应取得充分同意、严重违法罚款顶格可达营业额5%、在公共场所安装图像采集、个人身份识别设备,应当为维护公共安全所必需,遵守国家有关规定,并设置显著的提示标识。所收集的个人图像、身份识别信息只能用于维护公共安全的目的……

这些条款,都赋予了互联网用户拒绝被过度数字化的权利。随着人们对数据力量的认知越来越直观和深刻,人们已经认识到, 掌握用户信息之后的AI系统,早已不是什么单纯的工具,这些工具将人们视作流量与赚钱的工具,它们不停地向你索要更多的数据权限,向你索要电话号码、真实照片、家庭住址、银行卡号、身份证号以及社交关系,并且用这些数据去推断你的经济能力、社会地位、兴趣爱好或者风险偏好。

相信不少人都在影视作品里看过赛博朋克世界里科技水平高,但生活秩序混乱的场景,某种意义上讲,当无处不在、无所不知、无所不能的算法与数据开始决定人们的衣食住行,实现绝对的科技垄断之后,人类社会也就离赛博朋克的世界不遥远了,在这个世界里,能决定你是谁的,甚至不是你自己,而是算法。为了避免让这样的担忧成为现实,人们也确实需要拥有更多对个人信息与数据的自主权。

  • 发表于:
  • 原文链接http://news.51cto.com/art/202109/680326.htm
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券