首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

当AI技术的滥用后,危害远远超过想象!

关注我们

原文出自[CE安全网]

德国创新创业协会会长胡海涛第一财经记者表示:“应该严密保护个人数据,我们的企业家协会主要从事医学和生物医学AI研究,如果缺乏保护个人数据,不仅会导致客户个人社会形象受损,甚至可能影响职业生涯;如果是公众人物,潜在的风险是不可估量的。”

在大数据和云计算的帮助下,加强对“个人数据”的保护,近两年来人工智能再次在时代的浪潮中,成为一个不容忽视的热点。然而,与此同时,人工智能带来的各种社会问题也逐渐浮出水面。

2018年3月17日,据国外媒体透露,英国政治咨询公司剑桥分析没有在脸书(Facebook),公司同意情况下,并且未告知实情的同时,通过一种问答应用软件窃取了至少8700万Facebook用户的数据,然后这些数据卖给了特朗普的竞选团队,使其于2016年的总统大选中获得准确的信息投放给Facebook用户,最终赢得了选举。

事实上,只有少数用户真正使用这个问答应用,但由于facebook数据管理的一个缺陷,剑桥分析公司不仅可以访问所有用户的数据,还可以访问他们所有facebook好友的数据,尽管他们从未使用过这个应用。

这几乎算是2018年曝光的范围最大的数据丑闻,脸书公司的市值在丑闻曝光后至今已跌去了近40%,但这只是冰山一角。用户的数据是有价值的,因为它可以被人工智能系统分析来监控一切,从购物习惯到个人兴趣,甚至政治倾向。

这使得互联网巨头很容易利用人工智能向用户推送他们可能感兴趣的项目和广告,如果数据被泄露并用于非法目的,可能会带来灾难性的后果。现时迫切需要规管个人资料的收集、处理及储存方式,而欧盟已率先采取措施保障个人资料。

2018年5月25日,欧盟《通用数据保护条例》正式生效。为了保证新法规的实施,独立的监管机构欧洲数据保护委员会(European data protection commission)于同一天正式成立。

该法规被认为是历史上最严格的个人数据保护条例,不仅大大扩展了“个人数据”的定义,除了名字,电话号码、用户名、IP地址和其他一般信息,健康数据,宗教,政治观点,包括性取向也划入等敏感信息保护的范围,以及用户可以决定企业是否获得他们的个人信息,并允许使用范围,并可以要求公司删除保存的信息。

该规定不仅适用于在欧盟注册或总部设在欧盟的公司,也适用于提供产品、服务或持有或处理欧盟用户数据的公司。任何违反收集和使用个人信息基本原则、未能保护数据主体权利的公司,都可能被处以最高2000万欧元(合全球营业额的4%)的罚款。

受这些规定影响最大的是持有大量用户数据的互联网巨头。2018年11月下旬,很多个欧洲国家的消费者团体对谷歌提起诉讼,指控其违反欧盟数据保护规定,秘密追踪数百万用户的移动位置。谷歌可能面临巨额罚款。

2018年12月中旬,欧洲监管机构宣布,facebook将因未能保护用户隐私而接受调查,这意味着该公司可能面临高达数十亿美元的罚款。

在旧金山举行的阿斯彭互联网峰会上,德克萨斯州议会代表兼众议院监督与政府改革委员会主席赫德(Will Hurd)表示,未来美国可能会出台一项类似GDPR的数据监管法案。

赫德说,虽然一年前大多数美国人可能不会同意这一点,但2018年发生的一系列数据泄露事件已经完全改变了这一点。

谷歌CEO:担心AI技术被滥用于非法途径是可以理解的。除了保护个人资料外,针对人工智能的算法偏见也是一个需要解决的问题。消除人们之间存在的各种偏见是困难的,但通常个人的影响是有限的,不会给社会带来严重的后果。然而,如果人工智能算法含有偏见,一旦被广泛使用,负面影响将难以衡量。

2018年10月中旬,亚马逊关闭了(实验性的)人工智能招聘引擎,该引擎原本是为求职者的简历打分,然后把得分高的人的简历推到负责招聘的人力资源部门,而得分低的人的简历则被淘汰。

但在实践中,开发人员发现人工智能对“女性”求职者存在偏见。如果单词“女性”出现在特定的上下文中,它可能会自动降级。

这不是开发者故意设计的、待有偏见的内容,而是人工智能从公司历史上海量的求职和招聘数据中得出的一个模型。作为一家科技公司,亚马逊约60%的员工是男性,男性求职者远多于女性。随着人工智能的应用日益广泛,如何保证人工智能算法的公平性、公正性和安全性成为当务之急。

特别是在无人驾驶、医疗诊断、法律咨询等社会影响较深的领域,算法偏见带来的负面影响该由谁来负责?

从理论上讲,避免算法偏差的前提是保证算法的输入数据不存在任何偏见。然而,实际情况要复杂得多。例如,任何数据源都是有限的。假如源头本身的数据就不完全客观,结果会导致这种偏见自然而然地遗传给算法。

胡海涛在接受《第一财经日报》的记者采访时表示:“当我们不能对不同的AI算法进行客观唯一的评价之时,增加AI算法的透明性、开放度及对AI算法的审议机制,是人类目前阶段最明智的选择。人工智能算法应该保证公平、公正、公开,没有暗箱操作的,只有这样,它的参考结果才有说服力。人工智能应该帮助人类做出更好的决定,而不是为人类做出决定。

近年来流行起来的人工智能自动驾驶技术就是最好的例子。早在2017年,美国众议院就通过了加速推广自动驾驶汽车的相关计划,但该法案尚未得到参议院的批准。

2018年12月19日,美国参议员再次拒绝在2018年年底休会前对该法案进行的投票。尽管企业做出了让步,该法案还是遭到了一些民主党人的反对,他们认为自动驾驶技术尚未能解决安全问题

谷歌首席执行官Stephen Pichai在12月中旬告诉媒体,对滥用人工智能技术的担忧是“非常合理的”。他说,新的人工智能工具,如无人驾驶汽车和疾病检测算法,都应该置道德护栏,并考虑什么是滥用这项技术。“我认为科技公司必须意识到不能先创造人工智能工具,然后再去完善它,这样是行不通的。”

埃森哲应用情报部门董事总经理乔杜里还说,他预计未来一年全球将出现更多的政府审查和技术监督。她说:“人工智能和全球科技巨头所掌握的权力引发了许多关于如何监管行业和技术的问题,2019年我们将继续寻找这些问题的答案。”

超级盾

WELCOME

TO JOIN US

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190809A076EA00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券