首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

控制数据就能控制思想,facebook泄密告诉你的真相

算法的复杂性、不透明性导致了一个“黑箱社会”的形成。在这个“黑箱社会”里,真相只有被“局内人”所掌握,公众对算法理解得越少,就越难以接触到事实的真相。

冰川思想库特约撰稿 | 郑伟彬

在经历5天的数据丑闻之后,美国社交网络公司facebook CEO 扎克伯格终于在3月21日(美国当地时间)打破沉默,首次发声,为5000万用户数据泄露道歉。

在此数日前,英美媒体披露,数据分析企业剑桥分析(Cambridge Analytica)未经授权,获取facebook上多达5000万用户的信息,并将之用于预测和影响2016年美国总统大选的选民投票。这一事件成为facebook创建14年以来最大的用户数据泄露事件之一。

▲Facebook创始人兼CEO马克·扎克伯格发布声明。

在声明中,扎克伯格承认了平台曾经犯下的“错误”,并且提出为了阻止用户信息被利用,接下来将做出改善措施,以重新获得用户的信任。

可操控的数据

对于facebook而言,用户的信任至关重要,因为这是facebook的商业运作逻辑,是它的生存根本。

有人曾计算得出,facebook上的每个用户能够为其带来2.76美元的收入。而这些收入的实现,则是通过对用户特征的准确分析,进而实现精准的广告投放。

因此,我们不难发现,无论是剑桥分析公司通过大数据分析影响2016年美国大选,或是facebook通过用户研究实现精准的广告投放,都说明了一个基本事实,即大数据提可操控的,人的思想、意识和行为方式,都可以通过数据的过滤及呈现,进行控制与干扰。

通常,大数据分析会被视为帮助人们更好作出决策的工具,尤其是在商业上,基于大数据和人工智能技术产生的智能投顾、智能决策等产品不断涌现,但对于大数据可被操控这一现实,却似乎被人们普遍遗忘。

此次facebook的数据丑闻暴露出了大数据分析完全有可能被作为恶意武器,成为操控决策的工具。

数据隐私保护被忽视的问题

面对这样的事实,如何保护数据隐私再度成为公众讨论的焦点。但这些讨论中却又常常忽视了另一个问题:即数据的使用和处理,是否也属于数据保护的范围?以及如果是,该怎样做才能起到保护作用?

以欧盟历经4年讨论,即将于今年5月25日生效的《统一数据保护条例》(GDRR)为例,它同样是基于数据的采集、使用许可及数据使用目的进行立法。从全球范围来看,欧盟的《统一数据保护条例》进一步强化了数据保护措施,强调对自然人数据的尊重。

比如公众有权利要求各种系统、应用程序停止记录和使用自己的行为数据,并且,即使这些行为数据被采集之后,也不能永久保留,其时限最多为一年半。同时,用户可以要求相关企业将其数据彻底删除。换句话说,用户可以选择让自己从互联网上“消失”。

▲Facebook官方发布声明,提出防止用户数据被滥用的举措。

此外,为了避免造成潜在的歧视,该条例还要求不得将敏感数据用于智能决策。所谓的敏感数据包括种族、政治倾向、宗教信仰、健康、性生活、性取向的数据,或者可唯一性识别自然人的基因数据、生物数据。

尽管如此,这一条例在应对如此快速增长的数据世界时,恐怕仍然捉襟见肘。虽然它从根本上强调用户对其自身数据拥有相应的处理权,可以选择删除,可以拒绝被采集。但在实际上,用户如果拒绝数据被采集,其结果往往意味着同时失去使用软件或应用程序的关键功能。因此,事实上用户的选择权相当有限。

算法造就的“黑箱社会”

再者,如果不能清楚地知道自己的数据如何被使用,被用于何处,那么用户这种选择权同样也将毫无用处。

虽然欧盟这一条例强调用户拥有选择权,并且要求进行数据分析的算法可被理解,但在现实中,相关的人工智能算法或大数据分析算法,往往是企业重要的商业机密。根据商业秘密保护的规定,算法程序拥有相应的产权,可以无须公开披露的。因此,欧盟《统一数据保护条例》最终实施效果如何,恐怕还需要时间加以证明。

但在此之前,我们可以想象得到,算法不公开将必然导致的一个结果,即是追究责任上的艰难。如果用户不能知晓具体的分析算法是什么,以及该算法具体使用其数据,那么必然导致用户无法判断其数据是否正在被滥用。即使怀疑自己遭遇到算法的不公平对待,由于算法的难以理解或企业拒绝公开,用户也往往无法就此提出控诉,导致用户无法维护其权益。

▲facebook创始人马克·扎克伯格

可以说,正是算法的这种复杂性、不透明性导致了一个“黑箱社会”的形成。在这个“黑箱社会”里,真相只有被“局内人”所掌握,公众对算法理解得越少,就越难以接触到事实的真相。与此同时,“黑箱”的存在,也让相关人员掌握了欺骗公众或隐藏真相的能力,让其轻易拥有编造各种理由以应对调查的可能。

所以,保护数据隐私,不仅仅涉及数据的采集许可及其目的使用的限制,同样需要对其使用过程,以及使用算法,有着清晰、明确的边界和能够被严格理解的基本要求。

当然,上述悲观的论述不应该成为我们拒绝科技进步的理由。毕竟借助大数据和人工智能算法、技术进行数据分析,挖掘数据价值仍然是大势所趋。并且,由于大数据所带来的潜在危害,背后都是人为因素在作怪,因此,这些危害在很大程度上也是可避免的,关键在于首先要确保进行大数据分析的数据集是高质量的,其次避免相关算法没有被恶意设计或使用。

觉得文章不错,就打赏一个吧!

本文图片部分来源于网络,

欢迎权利人与我们联系以便支付稿酬,

请于后台留言。

点一点广告,心情会更加愉快!

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180323G071I100?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券