首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >人工智能发展中的信息安全与监管

人工智能发展中的信息安全与监管

作者头像
企鹅号小编
发布2018-02-26 15:08:49
8640
发布2018-02-26 15:08:49
举报
文章被收录于专栏:企鹅号快讯企鹅号快讯

2016年3月,阿尔法围棋(AlphaGo)以4比1的总比分,战胜围棋世界冠军、职业九段棋手李世石;2017年5月,在中国乌镇围棋峰会上,又以3比的总比分战胜排名世界第一的围棋冠军柯洁。人们第一次真切地感到人工智能(ArtificialIntelligence,AI)的强大,引发了广泛的讨论和忧虑。阿尔法围棋之所以那么厉害,除了强大的硬件,凭借的是数量达到3000万的棋谱样本,这是任何人类个体都无法比拟的“大数据”。

2017年10月18日,谷歌人工智能团体Deep Mind在《自然》上发表论文,宣布新版AlphaGo Zero在不用人类棋谱的情况下,通过强化学习(reinforcementlearning),以100:0战胜AlphaGo,真的是百战百胜。新版阿尔法围棋不需要参考人类围棋的样本数据,并非说明数据不重要。一是围棋本是人类设计的规则有限且明确的可量化游戏,并非真实的生活场景(真实的人类社会生活更加复杂和不确定);二是新版阿尔法围棋在自我强化学习过程中,花了三天时间,自己对弈490万棋局,在这个过程中高强度地使用了蒙特卡罗树搜索(MCTS),这个搜索实际上是在产生标注数据,并且不断优化策略,使训练过程朝着不断收敛的方向进行。新版阿尔法围棋的出现,说明在智能化时代,不仅人类活动的数据很重要,而且机器运行的数据也很重要。在某些方面,由于机器运算更快更有效,智能化设备的数据安全尤其值得注意。

人工智能是“数据为王”,这是智能化时代跟机械化时代的重大区别。一个功能强大的人工智能系统,需要大量的数据来“喂料”。为了丰富数据,改进算法,服务商需要不断扩大用户群体和样本,采集更全面更真实的数据。人工智能的竞争演变为数据之争,与此相伴而生的是,数据和算法的信息安全保密问题越来越多,越来越严峻。

首先,由于智能设备的广泛应用和不断开发,导致公开信息和秘密信息,民用数据和军用数据的界限越来越难以区分,并借助人工智能技术相互渗透和转变,导致法律上监管的困难。一方面,智能设备的广泛应用,导致公开信息和秘密信息的界限越来越模糊不定。传统社会中,秘密信息或敏感信息是相对确定的,保密事项范围可以相对明确和稳定。在智能化技术条件下,单个或少数的个人信息可能不是国家秘密,但是全国的个人信息数据——包括年龄、血型、学历、病历、收入水平、消费记录、思想倾向等都被收集、存储和智能化计算,就可能具有国家战略安全意义。这些信息可能是通过各种智能穿戴设备、网络平台或者其他公共服务的智能系统中生成和采集,经过网络传递和设备之间的数据同步,被更强大的大数据中心所收集和处理,可以实现对某一国人口信息、经济社会信息的相关性分析,判断该国战争潜力、政体稳定、经济形势等,完成“从量变到质变”的过程。

另一方面,人工智能设备的开发与应用,导致民用数据和军用数据越来越难以区别管理。在人工智能的各种应用中,民用智能设备越来越要求数据的全面、准确和及时。比如,自动驾驶的智能汽车需要真实的交通场景数据,这种实时性、网络化的信息是自动驾驶感知、决策与控制的技术基础。当智能汽车进入一个城市,就要全面掌握这个城市的道路信息,包括动态的、交互的车辆、行人、动物信息,并配合卫星定位系统的实时数据,要求这些数据的采集、传递和处理速度要在数秒之内,才能保证智能汽车在瞬息万变的道路中的安全,真正成为这座大城市“活地图”。这种立体化、全方位、即时性的数据,已经很难区分民用和军用的界限在哪里。特别是,现在电子地图还采集真实的街景,整个城市面貌一览无遗地展现在智能汽车系统之中。对于战略性大城市,就可能关系到国家安全和利益。事实上,有些国家和地区已经禁止谷歌地图等地图服务商的街景拍摄车采集城市信息。有的国家还立法规定行车记录仪的安装和使用,也需要经过审批和备案,以避免侵犯行人的隐私等。

其次,人工智能设备和系统对数据的深度处理和全球化传递,产生了新的安全问题。人工智能的发展和应用有赖于数据的采集和处理,换言之,大数据的处理必然是通过智能设备来完成的,数据安全问题与人工智能安全问题是互为表里的,要通过人工智能设备制造商、服务商的规制来保障。具体来说,在人工智能设备采集和处理数据的过程中,用户面对服务商的数据采集、存储、传递和处理,由于技术壁垒和信息不对称,难以判断所提供的信息到底有什么危险,如何被使用,甚至被采集到什么信息也不知情;即使知情,面对服务商的强势地位和霸王条款,也难以拒绝。在这种情况下,就需要公共部门履行监管职责,提高用户谈判地位,保证人工智能服务商不得泄露、篡改或者毁损用户信息,不得出售或者非法向他人提供,对用户数据的输出和使用,做到脱密处理;而且,对于机器深度学习的原始素材、语料等的收集、分析、使用,需要事先经过用户的知情和同意,遵守用户信息收集和使用的合法、正当、必要原则,严格履行信息安全保障和保密义务。

监管部门面临的挑战还在于,由于数据的传递、存储、计算、分布形态和内容都是全球化的,人工智能系统和服务终端可能分布在全球各地,在数据跨境流动的规制中,发达国家具有重大优势,其他国家则面临难以逾越的“数据鸿沟”。比如,美国利用其信息技术企业的优势,全球用户的信息被传回设在美国本土的服务器中,并建设若干大数据中心,爬取各国相关网站,通过数据挖掘敏感信息,以获得国际竞争中的优势。可见,对人工智能的信息安全监管,既需要广泛的国际合作,也存在深刻的国际竞争。至于如何协调监管,则是一种新的安全挑战问题。

再次,人工智能潜在的算法歧视和安全问题,需要公共部门的监管来克服。相较于数据安全来说,算法模型上的歧视和安全则更加隐蔽而致命。从法律和管理的角度来看,主要的问题有如下三点。

一是人工智能的自动化决策可能隐含商业陷阱,需要监管来避免。人工智能要在大数据、云存储的基础上实现自动化决策。然而,这种自动化决策并非完全是“技术中立”。在现实应用中,基于机器学习的自主或者自动化的决策系统日益被广泛应用在搜索引擎、精准广告等诸多领域。2016年的“魏则西事件”,让人们注意到百度搜索的问题。人们惊诧于百度公司能在网络检索上造出重大“商机”,其中基于商业利益的人工干预和设置尤其值得警惕。人工智能算法模型的设计是编程人员的主观选择和价值判断,也可能在机器深度学习过程中自主演变和进化,从而产生法律责任主体认定模糊和边界区分困难的问题。要解决这些问题,必须保障算法决策的透明性和公平性,光靠企业的自律是不行的,公共部门的监管角色不可或缺。

二是人工智能的判断规则可能有潜在歧视,需要监管来克服。人工智能的自动化决策不仅在市场经济领域可能存在陷阱,还可能在其他领域存在歧视或价值判断冲突。在一起交通事件中,当自动驾驶的智能汽车无法安全停车的情况下,是选择撞上旁边的一辆校车,还是前面的一辆亿万富豪的轿车?或者是撞上左边的老年人,还是右边的年轻残疾人?在这种道德和法律的极端情况下,人工智能采用的数据和算法背后,可能是经济价值、生命价值的判断和取舍。其中的决策规则可能是编程人员事先设定的,那么,这就可能被人为干预,比如有钱、有权者对编程人员的不当影响,以便获得在特定情况下生命安全保障的优先权。即使在没有编程人员预见的情况下,人工智能通过深度学习和进化所做的自动化决策,也可能产生人工智能的伦理问题,比如关于残疾人、妇女、儿童、低学历者等弱势或低贡献能力者的抢救、损害顺序或等级设置等。这种非传统的歧视问题,也需要纳入监管,并出台相应的管理制度。

三是人工智能发展中形成的无形权力,需要监管来约束。由于人工智能服务商可能有条件和便利收集到大量的数据、样本,并设计人工智能的核心算法及其偏好,实际上在相应的领域中获得决策权。可以说,谁掌握了数据和算法,谁就是人工智能时代的真正管理者。这种无形的权力,使人工智能的发展侵占了传统社会中的公共部门权力。在科幻影视中,可能是某个人工智能公司管理社会或社会的某个领域。由于技术和市场而逐渐形成的权力,很容易突破商业领域,影响到更加广泛的公共事务上。如果没有公共部门的监管,就可能为商业利益所侵蚀,危害公民和国家的信息安全。

最后,人工智能的发展及其监管,需要私人部门和公共部门的合作。正如前文指出,作为私人部门的企业由于掌握了某个领域的大数据和关键算法,实际上掌握该领域的事务管理权力。对于公共部门来说,一方面要进行必要的监管,另一方面还要依靠私人部门并与之合作,才能更好地履行职能。比如,在网络空间或者社交平台的监管方面,相关的数据掌握在某些企业手中,有可能借口保护用户信息或不掌握相关信息为由,拒绝提供相关的数据。2017年5月,网上流传一个关于腾讯公司拒绝某法院调查的《调查函复函》。该复函称,腾讯公司未保存聊天记录,既无法也无权查看,因此无法协助提供相关信息。类似的,2016年2月,苹果公司拒绝配合美国联邦调查局关于加州圣伯纳迪诺恐怖袭击案的调查,为调查人员提供“后门”,以便获取凶犯苹果手机上的相关数据和信息。苹果公司回应称,解锁手机密码可能威胁苹果手机用户的信息安全,因而拒绝配合。苹果公司CEO蒂姆·库克还在网上发布公开信,明确表示“反对这个命令”。和腾讯公司一样,这种态度很容易获得民众的支持,被视为敢于抵抗公权力,维护消费者利益的英雄。试想,在真正进入智能时代之后,类似的案件取证、事务管理,没有私人部门的合作,要想适当履行公共部门的监管职能,不仅有技术上的困难,也有公共管理上的合法性危机问题。

阿尔法围棋只是人工智能的初试锋芒,各种智能设备和系统的应用方兴未艾,但展现出来的法律监管问题已经足以引起人们的注意。“人工智能的迅速发展将深刻改变人类社会生活、改变世界”,这是国务院2017年7月8日印发的《新一代人工智能发展规划》的开篇第一句。对于信息安全保密相关部门来说,人工智能的发展必将挑战传统的管理方式和制度。所以,《新一代人工智能发展规划》要求,“在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展”,并提出到2025年,“初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。

原文发表在《保密科学技术》2017年第11期。

本文来自企鹅号 - 法治笔记媒体

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文来自企鹅号 - 法治笔记媒体

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
对象存储
对象存储(Cloud Object Storage,COS)是由腾讯云推出的无目录层次结构、无数据格式限制,可容纳海量数据且支持 HTTP/HTTPS 协议访问的分布式存储服务。腾讯云 COS 的存储桶空间无容量上限,无需分区管理,适用于 CDN 数据分发、数据万象处理或大数据计算与分析的数据湖等多种场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档