人工智能发展中的信息安全与监管

2016年3月,阿尔法围棋(AlphaGo)以4比1的总比分,战胜围棋世界冠军、职业九段棋手李世石;2017年5月,在中国乌镇围棋峰会上,又以3比的总比分战胜排名世界第一的围棋冠军柯洁。人们第一次真切地感到人工智能(ArtificialIntelligence,AI)的强大,引发了广泛的讨论和忧虑。阿尔法围棋之所以那么厉害,除了强大的硬件,凭借的是数量达到3000万的棋谱样本,这是任何人类个体都无法比拟的“大数据”。

2017年10月18日,谷歌人工智能团体Deep Mind在《自然》上发表论文,宣布新版AlphaGo Zero在不用人类棋谱的情况下,通过强化学习(reinforcementlearning),以100:0战胜AlphaGo,真的是百战百胜。新版阿尔法围棋不需要参考人类围棋的样本数据,并非说明数据不重要。一是围棋本是人类设计的规则有限且明确的可量化游戏,并非真实的生活场景(真实的人类社会生活更加复杂和不确定);二是新版阿尔法围棋在自我强化学习过程中,花了三天时间,自己对弈490万棋局,在这个过程中高强度地使用了蒙特卡罗树搜索(MCTS),这个搜索实际上是在产生标注数据,并且不断优化策略,使训练过程朝着不断收敛的方向进行。新版阿尔法围棋的出现,说明在智能化时代,不仅人类活动的数据很重要,而且机器运行的数据也很重要。在某些方面,由于机器运算更快更有效,智能化设备的数据安全尤其值得注意。

人工智能是“数据为王”,这是智能化时代跟机械化时代的重大区别。一个功能强大的人工智能系统,需要大量的数据来“喂料”。为了丰富数据,改进算法,服务商需要不断扩大用户群体和样本,采集更全面更真实的数据。人工智能的竞争演变为数据之争,与此相伴而生的是,数据和算法的信息安全保密问题越来越多,越来越严峻。

首先,由于智能设备的广泛应用和不断开发,导致公开信息和秘密信息,民用数据和军用数据的界限越来越难以区分,并借助人工智能技术相互渗透和转变,导致法律上监管的困难。一方面,智能设备的广泛应用,导致公开信息和秘密信息的界限越来越模糊不定。传统社会中,秘密信息或敏感信息是相对确定的,保密事项范围可以相对明确和稳定。在智能化技术条件下,单个或少数的个人信息可能不是国家秘密,但是全国的个人信息数据——包括年龄、血型、学历、病历、收入水平、消费记录、思想倾向等都被收集、存储和智能化计算,就可能具有国家战略安全意义。这些信息可能是通过各种智能穿戴设备、网络平台或者其他公共服务的智能系统中生成和采集,经过网络传递和设备之间的数据同步,被更强大的大数据中心所收集和处理,可以实现对某一国人口信息、经济社会信息的相关性分析,判断该国战争潜力、政体稳定、经济形势等,完成“从量变到质变”的过程。

另一方面,人工智能设备的开发与应用,导致民用数据和军用数据越来越难以区别管理。在人工智能的各种应用中,民用智能设备越来越要求数据的全面、准确和及时。比如,自动驾驶的智能汽车需要真实的交通场景数据,这种实时性、网络化的信息是自动驾驶感知、决策与控制的技术基础。当智能汽车进入一个城市,就要全面掌握这个城市的道路信息,包括动态的、交互的车辆、行人、动物信息,并配合卫星定位系统的实时数据,要求这些数据的采集、传递和处理速度要在数秒之内,才能保证智能汽车在瞬息万变的道路中的安全,真正成为这座大城市“活地图”。这种立体化、全方位、即时性的数据,已经很难区分民用和军用的界限在哪里。特别是,现在电子地图还采集真实的街景,整个城市面貌一览无遗地展现在智能汽车系统之中。对于战略性大城市,就可能关系到国家安全和利益。事实上,有些国家和地区已经禁止谷歌地图等地图服务商的街景拍摄车采集城市信息。有的国家还立法规定行车记录仪的安装和使用,也需要经过审批和备案,以避免侵犯行人的隐私等。

其次,人工智能设备和系统对数据的深度处理和全球化传递,产生了新的安全问题。人工智能的发展和应用有赖于数据的采集和处理,换言之,大数据的处理必然是通过智能设备来完成的,数据安全问题与人工智能安全问题是互为表里的,要通过人工智能设备制造商、服务商的规制来保障。具体来说,在人工智能设备采集和处理数据的过程中,用户面对服务商的数据采集、存储、传递和处理,由于技术壁垒和信息不对称,难以判断所提供的信息到底有什么危险,如何被使用,甚至被采集到什么信息也不知情;即使知情,面对服务商的强势地位和霸王条款,也难以拒绝。在这种情况下,就需要公共部门履行监管职责,提高用户谈判地位,保证人工智能服务商不得泄露、篡改或者毁损用户信息,不得出售或者非法向他人提供,对用户数据的输出和使用,做到脱密处理;而且,对于机器深度学习的原始素材、语料等的收集、分析、使用,需要事先经过用户的知情和同意,遵守用户信息收集和使用的合法、正当、必要原则,严格履行信息安全保障和保密义务。

监管部门面临的挑战还在于,由于数据的传递、存储、计算、分布形态和内容都是全球化的,人工智能系统和服务终端可能分布在全球各地,在数据跨境流动的规制中,发达国家具有重大优势,其他国家则面临难以逾越的“数据鸿沟”。比如,美国利用其信息技术企业的优势,全球用户的信息被传回设在美国本土的服务器中,并建设若干大数据中心,爬取各国相关网站,通过数据挖掘敏感信息,以获得国际竞争中的优势。可见,对人工智能的信息安全监管,既需要广泛的国际合作,也存在深刻的国际竞争。至于如何协调监管,则是一种新的安全挑战问题。

再次,人工智能潜在的算法歧视和安全问题,需要公共部门的监管来克服。相较于数据安全来说,算法模型上的歧视和安全则更加隐蔽而致命。从法律和管理的角度来看,主要的问题有如下三点。

一是人工智能的自动化决策可能隐含商业陷阱,需要监管来避免。人工智能要在大数据、云存储的基础上实现自动化决策。然而,这种自动化决策并非完全是“技术中立”。在现实应用中,基于机器学习的自主或者自动化的决策系统日益被广泛应用在搜索引擎、精准广告等诸多领域。2016年的“魏则西事件”,让人们注意到百度搜索的问题。人们惊诧于百度公司能在网络检索上造出重大“商机”,其中基于商业利益的人工干预和设置尤其值得警惕。人工智能算法模型的设计是编程人员的主观选择和价值判断,也可能在机器深度学习过程中自主演变和进化,从而产生法律责任主体认定模糊和边界区分困难的问题。要解决这些问题,必须保障算法决策的透明性和公平性,光靠企业的自律是不行的,公共部门的监管角色不可或缺。

二是人工智能的判断规则可能有潜在歧视,需要监管来克服。人工智能的自动化决策不仅在市场经济领域可能存在陷阱,还可能在其他领域存在歧视或价值判断冲突。在一起交通事件中,当自动驾驶的智能汽车无法安全停车的情况下,是选择撞上旁边的一辆校车,还是前面的一辆亿万富豪的轿车?或者是撞上左边的老年人,还是右边的年轻残疾人?在这种道德和法律的极端情况下,人工智能采用的数据和算法背后,可能是经济价值、生命价值的判断和取舍。其中的决策规则可能是编程人员事先设定的,那么,这就可能被人为干预,比如有钱、有权者对编程人员的不当影响,以便获得在特定情况下生命安全保障的优先权。即使在没有编程人员预见的情况下,人工智能通过深度学习和进化所做的自动化决策,也可能产生人工智能的伦理问题,比如关于残疾人、妇女、儿童、低学历者等弱势或低贡献能力者的抢救、损害顺序或等级设置等。这种非传统的歧视问题,也需要纳入监管,并出台相应的管理制度。

三是人工智能发展中形成的无形权力,需要监管来约束。由于人工智能服务商可能有条件和便利收集到大量的数据、样本,并设计人工智能的核心算法及其偏好,实际上在相应的领域中获得决策权。可以说,谁掌握了数据和算法,谁就是人工智能时代的真正管理者。这种无形的权力,使人工智能的发展侵占了传统社会中的公共部门权力。在科幻影视中,可能是某个人工智能公司管理社会或社会的某个领域。由于技术和市场而逐渐形成的权力,很容易突破商业领域,影响到更加广泛的公共事务上。如果没有公共部门的监管,就可能为商业利益所侵蚀,危害公民和国家的信息安全。

最后,人工智能的发展及其监管,需要私人部门和公共部门的合作。正如前文指出,作为私人部门的企业由于掌握了某个领域的大数据和关键算法,实际上掌握该领域的事务管理权力。对于公共部门来说,一方面要进行必要的监管,另一方面还要依靠私人部门并与之合作,才能更好地履行职能。比如,在网络空间或者社交平台的监管方面,相关的数据掌握在某些企业手中,有可能借口保护用户信息或不掌握相关信息为由,拒绝提供相关的数据。2017年5月,网上流传一个关于腾讯公司拒绝某法院调查的《调查函复函》。该复函称,腾讯公司未保存聊天记录,既无法也无权查看,因此无法协助提供相关信息。类似的,2016年2月,苹果公司拒绝配合美国联邦调查局关于加州圣伯纳迪诺恐怖袭击案的调查,为调查人员提供“后门”,以便获取凶犯苹果手机上的相关数据和信息。苹果公司回应称,解锁手机密码可能威胁苹果手机用户的信息安全,因而拒绝配合。苹果公司CEO蒂姆·库克还在网上发布公开信,明确表示“反对这个命令”。和腾讯公司一样,这种态度很容易获得民众的支持,被视为敢于抵抗公权力,维护消费者利益的英雄。试想,在真正进入智能时代之后,类似的案件取证、事务管理,没有私人部门的合作,要想适当履行公共部门的监管职能,不仅有技术上的困难,也有公共管理上的合法性危机问题。

阿尔法围棋只是人工智能的初试锋芒,各种智能设备和系统的应用方兴未艾,但展现出来的法律监管问题已经足以引起人们的注意。“人工智能的迅速发展将深刻改变人类社会生活、改变世界”,这是国务院2017年7月8日印发的《新一代人工智能发展规划》的开篇第一句。对于信息安全保密相关部门来说,人工智能的发展必将挑战传统的管理方式和制度。所以,《新一代人工智能发展规划》要求,“在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展”,并提出到2025年,“初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。

原文发表在《保密科学技术》2017年第11期。

本文来自企鹅号 - 法治笔记媒体

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏大数据文摘

MIT请来了一群经济学家,就AI是否会带来大规模失业展开了一场辩论

24210
来自专栏数据猿

【大咖周语录】智慧城市应该是城市总体资源的配给智慧

【数据猿导读】 之前我们总是将大数据应用的目光放在看得到、摸得着的地方,如城市的建设、营销、金融等,文化方面的大数据应用被大多数人忽略了,可能因为数据和文化一个...

32460
来自专栏机器人网

案例分享:中小企业如何赢在机器人时代(中)

在北美及全球,中小企业的数量远超过大型企业。总体来说,他们雇佣更多地工人。但是,他们还没有学到那些巨头们熟知的东西。代表多数企业的中小企业还没有意识到自动化和机...

289100
来自专栏罗超频道

极客公园2013创新大会笔记:慢公司创新是创产品,快公司创新是创模式

极客公园2013创新大会,大牛云集。既有互联网老前辈也有创业新星,有登录纳斯达克的有现在还在到处拉投资的。颇有高帅富和屌丝同台论道,指点江山,共同畅想中国互联网...

26780
来自专栏数据猿

4年前,他助推微软云平台落地中国;4年后,他成为微软加速器最年轻企业的创始人

数据猿导读 在微软加速器北京第九期团队中,扩博智能Clobotics不仅是有史以来最年轻的团队,其创始人还曾供职微软16年,担任过微软大中华区副总裁;CTO曾经...

41670
来自专栏灯塔大数据

荐读 | 拿什么唤醒你——政府数据?

长期分散在各个政府部门的各项数据“各吃各饭”“各管一摊”,休眠沉睡。一边是看不着、查不到,一边是握在手、落满土——大数据时代,诸多政府数据面临着如此尴尬。如何唤...

31280
来自专栏机器人网

跟人类恐惧被统治相比,机器人更担心自己被扼杀!

似乎每个月都会有一些关于人工智能(AI)如何偷走我们的工作、伤我们的心,或者直接把我们所有人都杀光的新闻标题或电影出现。 这不仅仅是一个勒德分子(一个害怕或者...

33960
来自专栏企鹅号快讯

谷歌归来是“寒潭鹤影”,还是“人面桃花”?

在北京举办的谷歌开发者大会上,谷歌云人工智能和机器学习团队的首席科学家李飞飞宣布,谷歌人工智能(AI)中国中心在北京成立。她表示“希望开始一段长久的、真诚的合作...

21260
来自专栏大数据文摘

业界 | 被AI潮抛弃的企业?对话微软CTO韦青,如何应对“变革”焦虑

本文为清华数据科学研究院联合大数据文摘发起的年度白皮书《顶级数据团队建设全景报告》系列专访的第三篇内容。《报告》囊括专家访谈、问卷、网络数据分析,力求为行业内数...

8800
来自专栏PPV课数据科学社区

大数据告诉你:诸葛亮和司马懿谁的信用评分更高

“大数据”概念的最早出现,是从2012年2月份纽约时报一篇文章开始的。到目前为止,在大数据领域当中的投资已经越来越热,该领域企业越来越多。但是,有多少公司到底真...

371150

扫码关注云+社区

领取腾讯云代金券