首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何破解人工智能“算法独裁”?

随着人工智能的不断发展,人工智能深刻着影响社会的方方面面,不仅是农业、工业、通信业、服务业受影响,即使是法律行业也会受到重大影响。如人工智能的查询和诉讼服务对初级律师造成严重影响;电子人权的讨论对民法的传统内涵提出巨大挑战;人工智能法官对审判活动也产生相应的影响。这种影响根本上来源于人工智能背后隐藏着“算法独裁”,可能导致不公平、歧视、错误等问题,甚至给人类带来难以估量的灾难。

许多科技界知名人士都纷纷对人工智能将会为人类社会带来的影响发出了预警,未来机器人会不会真的超越我们人类,我们人类会不会被AI永远独裁?目前来看的话,人工智能还没有到这种地步,它还无法摆脱困境,但可以肯定的是人类可能已经在不知不觉中创造了一个“永久的独裁者”,人工智能的独裁统治期限将远超任何一个政权,它可能会对人类进行无限期的压迫。

「算法独裁」出现的原因

算法本身不具有公开透明性。算法系统以大数据为基础,根据数据得出运算结果。因此,我们只能看到输入的数据以及得出的结果,而对运算过程一概不知,由此会导致“算法黑箱”或“算法独裁”问题。人工智能算法有三种形式的不透明性:一是因国家秘密或商业秘密而产生的不透明性;二是因技术了解程度不同而产生的不透明性;三是算法本身的复杂带来的不透明性。算法的不透明性导致的“算法独裁”,也会造成算法结果的难以解释。

算法的核心程序由“少数人”制定。人工智能是通过编程者编制核心程序,创造算法来驱动应用甚至整个社会运转。这些少数编程者借助人工智能算法主宰社会运行规律,极有可能造成“算法独裁”,进而影响法律的公平正义。法律背后的根据是正义,正义需要借助外在的标准来判断其价值,如果法律的推理系统由少部分人制定,那么正义的判断标准将会发生变质。

人类决策对算法的极度依赖促使其受制于算法。随着信息的过量输出,以及人工智能的功效逐渐深入人们的日常生活,人类不得不将大量的抉择交给人工智能。依赖个性化内容的推荐,本质上就是算法的结果。同时,随着信用评估、风险评估等各种评估信息的兴起,也使得人们的决策越来越受制于算法。而且人工智能在其算法运行中不断演进,难免出现失误甚至产生歧视现象。对于法律推理也如此,算法难免会影响公平正义,加剧“算法独裁”。

「算法独裁」带来冲击的法律表现

对工业事故责任标准造成影响。目前,各国不断出现人工智能伤人事件或者失误现象,引发人们的强烈担忧。如Uber自动驾驶全球首例撞死人事件,NTSB(美国国家运输安全委员会)披露的信息显示,在撞击前1.3秒系统已算出需要紧急制动,但为了车内人员安全算法决定不启动紧急制动。诸如此类机器人侵权事件发生,机器人的拥有者以机器人由人工智能系统操作为由,试图免责。生产者以机器人已经重新给自己编制程序或新主人重新给它编制程序,机器人所有权已转移为由,声称侵权责任已转移。制造者、运行平台、所有者以及智能系统本身的责任认定,成为法律和伦理难题。甚至,一旦机器人犯罪、触及刑事责任,如何惩罚机器人,如何定罪量刑,是仅仅处罚机器人还是同时处罚与其相关的所有人,都需要现行法律作出重新考虑。

对传统人格、权利等法律内涵提出挑战。20世纪80年代初期,美国成立研究未来法律的分部——夏威夷司法部,已经集中研究机器人的权利问题。目前,在瑞士,雇主被要求像对待他的雇员一样为机器人交税。在日本,有一些公司因使用的机器人向工会缴纳会费。机器人应该享有公民权,有三种观点。第一,机器人应该享有生命权以及保护自己不轻易遭到能力侵害的权利,即拥有电子人格;第二,应避免机器人长时间进行奴役性的劳动,即拥有自由权;第三,机器人可以有追求幸福的权利,即拥有自由选择消磨时间的方式。而这些权利的变化会使现有的法律出现例外状态,发生闲置甚至无效,正影响着法律的重塑。

对法律行业直接造成冲击。如律师在办案中花费时间最多的是翻阅海量文件,从中寻找案件的漏洞和相关证据,人工智能的搜寻和算法可以在很短的时间内完成这些。同时,人工智能的发展还会使科学辅助谎言检测工具不断升级。显然,人工智能对于由初级律师或者律师助理从事的程序化和相对机械化的法律服务工作很容易替代,意味着未来有相当数量的初级律师将失去工作。麦肯锡全球研究院在2017年的报告中也指出,复杂的机器人正从工厂走出,成为法律等领域的一部分。

缓解「算法独裁」可能的途径

增强算法的可解释性。目前,包括基于深度学习在内的多种算法,只有很少的机制对它们的结果进行解释。2017年1月,美国计算机协会下属的公共政策委员会发布《算法透明性和可问责性声明》,提出了七项基本原则,其中一项为“解释”,希望鼓励使用算法决策的系统和机构,对算法的过程和特定的决策提供解释,尤其在公共政策领域。2018年5月,欧盟正式实施的《一般数据保护条例》中提出“解释权”,赋予欧盟国家公民“审查某项特定服务中如何做出特定算法决策”。因此,编程者必须开发透明的系统,并能在本质上向用户解释其结果的原因。

提高算法的透明度。2017年2月欧盟议会通过《机器人民事法律规则》,强调算法透明原则,即对某个人或更多人的生活可能产生实质性的影响,借助于人工智能所做出的决策,必须在任何情况下都可以提供其决策背后的算法设计规则。2017年12月,美国纽约市议会通过了一项算法问责法案,根据此法案,将成立一个由自动化决策系统专家和受自动化决策系统影响的公民组织代表组成的工作组,专门监督市政机构使用的自动决策算法的公平性、问责性和透明度。因此,编程者必须学会如何设计这些系统,以使他们的行动和决策是透明且是容易被人解释的,方便检查可能包含的任何偏差,不仅仅是学习和重复这些偏差。而且,编程者还必须研究可以在什么程度将公平正义设计到系统中,以及如何在当前技术范围内实现。

加强算法审查的合理性。首先,对于技术盲可以将审查权交给第三方代理。算法的解密或透明化需要很高的成本,个体难以承担,因此,算法的监督或审查应该由政府或政府委托的机构承担,尤其是在涉及一些公共物品或者公共行为时,工信部可以设立专门的人工智能算法审查机构。其次,还应推动知识双向运动。随着算法将被运用在征信规则、量刑规则以及保险规则中,如果编程者和人文社科学者互不了解,就会导致结果的不准确、不公平甚至产生歧视。因此,在设计出验证、知情同意、透明性、可责性、救济、责任等方面完善机制的基础上,推动编程者和人文社科学者的相互学习,来保障算法的公平性和准确性,保证法律的公平正义,以及人工智能够沿着正确的方向发展。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181121B1KJN100?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券