首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能与法律:行为的新规则or人类的危机

琢磨这个问题很久,晚上没有睡好,结果坐进书房写出这片内容杂乱的思考随笔,抛砖引玉。

--------------------

刚好今年的车险要到期了,于是在网上买了车险,拿到寄来的保单和合同正本。习惯性的打开看了下内容,合同版本号是2016版。看来保险公司这种以搏风险概率为业的公司特别在乎合同条款的完善性。因此,不知道以前已经更新过多少个版本了。保险公司能够持续的更新和维护业务合同,除了法律法规的更新、变化和调整外,还有就是自身经营中发现和遇到的法律问题,包括实际遇到的案件及司法判决、裁定的内容,都能够从中预测自身可能会触碰到的法律问题,然后在下一版的合同中进行更新和完善。因此,法律工作乃至于法律本身就是一种经验,这种经验看似是对未来的行为方式的预测,实则是依靠过去的经验去建立规则以预测未来。

因此,法律或者法学本身常常被认为是一种保守和落后的学科、专业,用过去为未来建立预期。作为法律工作者,其实很清楚绝大多数事情的未来会发生什么样的结果,这个结果是可以预测的,然而这个结果是依据法律预测的结果,来自于三段论。也许未来是不确定的,但过去却是确定的,有关过去的经验是能够依据法律方法可以提取和总结的规则,我们所依凭的就是法律的方法论。

其实在现实生活中也存在一个和法律一样的处理人类生活的方式。比方说,我们曾经依靠手工从事木艺,打造出车轮、车架、车辕、车轼,从而做成马车;再后来工业革命的来临,我们依靠手工、电钻、焊枪、冲压机床等造出一台汽车;当这些工艺可以使用到工具的时候,我们依靠工人使用工具来实现;直到我们发现许多工艺可以重复化、标准化的时候,现代工厂依靠冲压机器人、焊接/涂装机器人来代替人类的重复工作,更多的人被解放,去做需要依靠人类智力才能从事的工作。这就是机器智能化的第一步。

图片来源:http://computex.pconline.com.cn/918/9188632.html

实际上人工智能就类似于这样一个过程,它本质上是将人类可以反复重复的事情程序化,并基于算法将这种重复化的工作中偶然发生的事情依靠不断的积累去总结和预测,之所以称得上智能,即是因为它开始像人类一样试着对常态化或者偶发的行为进行总结并提前预判。因此,人工智能(AI)本身就是一种经验模式,它所掌握的就是过去的人类行为与经验,并基于此分析、归纳出人类行为方式的法则,并对未来的行为作出决策和预测。所以,人工智能的本质并不是不可知,它的行为方式本质上是可知的,就是基于过往的经验。这种经验一开始来自于人类自身,而它需要对于人类行为产生后周边自然的反馈作出总结,基于人类的反应进行学习,从而为自己的行事建立规则。当它作为一种智能离开人类的操作独立作出预测和决策的时候,自然环境的反馈、自己因此而作出的行动及结果回馈,就构成新的经验内容或是一部分。所以,人工智能起源于人类行为方式,但也会在此基础上形成自己才会遇到的经验。它既是对过去的经验的总结,是可以预测的,但也是人类自身单靠自身的经验不依靠人工智能可以被破译、学习和理解的。

人工智能的特点

因此,人工智能存在这样几个特点,包括具有和法律相似的特点。

第一,人工智能是既往经验的归纳和抽象化。

人工智能的成型和发展基于人类行为的数据,因此大数据的崛起支撑了人工智能的更加细致和准确,因为能够在庞大的数据的基础上进分析、归纳和总结,得以为单个或某类人群建立一种画像,也包括为类似的事件建立可以遵循的路径,作出预测,包括对于一些单一事情的具象化预测与判断。这都得以大数据将亿万次甚至更多的数据分类、归纳建立起更为繁杂但又有自身的算法体系的规则。

这更像是判例法,也类似于成文法的立法规则,无论未来遇到何种案件,人工智能已经为同样或和类似的事情形成了特定的算法规则。在法律的三段论里已经建立起大前提和行为模型。

第二,人工智能是具有基于人类及生活环境所形成的特有的行为规则。

人工智能具备自身特有的行为规则,这种特有的行为规则和其所采集的原始的人类行为方式存在联系,但又非完全基于人类行为的规则体系,有其自身对于自然世界的反馈和总结。而这些基于自身预测作出的行为和判断,以及根据主动学习积累的行为方式、环境动态数据的整理,将再次被分析、归纳和积累为自身的规则体系,为下一次决策与预测行为建立规则模式。因此,人工智能的行为规则,是一种特殊的规则,基于人类以及生活环境所积累的经验,以及人工智能基于自身行为数据的应用与总结,这是一种来源于自然世界,又不完全独立的规则体系。

第三,人工智能的行为方式是基于规则的可预测行为方式。

人工智能基于大数据为基础的算法规则,为下一次任务提供了大前提和参考体系,机器行为则能够根据更为相似或类似的因素,去命中某条或某类规则的行为方式,套用最具有相似性和合理性的算法规则相应的行为案例,作出下一步的行为预测或者决策。所以人工智能本身并不知道未来一定会是什么样的,但是它可以根据自身的经验体系和算法规则推测出它所计算出的“真实的”或是“应该是”的未来状态,而这种预测和决策,已经包含里自身对于行为后果的预测和分析。

第四,人工智能并不是在建立未来的规则,而只是在过去的事实上建立规则套用给未来。

人工智能的算法规则和法律本身都是一种具有各自适用范围、效力等级的规则体系,一种是基于机器算法,一种是基于人类的智识经验和分析总结。一种规则体系在于为机器的非人类行为提供预测和决策,提供行为方式,以减轻人类从事复杂工作的压力;而另一类则是一种经过人类基于公共利益、道德伦理、社会价值观、公平正义等因素规范化的行为规则。都将为从事生产、生活的行为作出指导和预测,因此我们套用在未来的规则并非属于未来,而是属于以其特有方式建立的现有生活方式,现有世界的模样构筑了人类与机器算法对于未来的认识宽度与广度。

人工智能与法律的差异

总之人工智能具有着与法律类似的规则生成路径,但又不同于人类规则的法律。比如,人工智能常常被认为是冰冷的机器语言与规则,基于大数据的积累;而人类法律对于生产生活和商业行为的归纳分析所抽取的规则却是除了特有的法律方法论,还以为充分的考虑考虑社会道德、伦理、公平正义等价值观。有的规则是基于先例的遵循与取舍,有的则是来源于法官的衡平造法,还有成文法国家体系化的立法机制。

人类法律所不同的是,经历了从自然法到实证法的过程,但也经历了依靠自然法的修正规避“恶法非法”的可能性。那么,对于机器算法规则,能否也同样遵循这样的路径则是人工智能是否替代人类本身的风险所在,也是人工智能在依靠自身演进过程偏离人类价值观无法被人类所控制与矫正的风险所在,两种风险都会是人工智能被质疑和担忧的根本问题。人类有足够的智能理性对价值观做出灵活的判断,却不代表人类可以为人工智能提供更为更为合理规则,去让机器甄别那些算法规则是否合乎人类社会逻辑与价值观的规则;包括,它在自我学习过程中不会因为机器行为所得到的自然反馈数据不会重重述或修改对于人类行为的预测方式?实际上从人工智能的实现过程和主动学习的特征来看是极有可能的。

虽然人工智能和人类法律一样都在不断的学习和认知现实世界,但人工智能和法律规则的仍然存在巨大的方向性性分歧。人工智能的学习速度远远超出人类大脑的速度,它能够在极短的时间里就自然世界和行为建立起大量的分类规则,成为下一步主动行为的预测与指导;因此,就规则的量级来说是成规模级的细化,而人类法律规则虽然也类似,但速度慢了很多,而且很难建立这样细致和繁杂的规则体系,立法者所能够从生活中归纳和抽象出来的规则不是为了适用于特定的人和特定的事件,而是为了针对不特定的人、不特定的事件建立预期和指导;而人工智能的终极目标是能够为特定的人、特定的事件建立起更有针对性的预期与指导。

两种不同的目的性,决定了人工智能算法规则的主动学习是要成为一个可以替代人类的规则体系,而法律的不断学习完善是在于为更多的不特定人群建立更为抽象、有效、可预期的规则体系。前者使得机器更接近于人,接近于人在于每件事件上的处理方式,而法律则在于大多数事件上建立一种可供参考或者是被遵守的标准。前者强调对于个体事件的准确性,后者强调对于不特定种类事件的准确性。

人工智能的危险,同样是规则体系会不会成为法律的规范目标?

前者论述到,人工智能来源于人类规则,但它的主动学习模式会超越人类规则,机器会在主动学习的过程中基于自己的“遭遇”建立一种自己的“认识”,从而被丰富进算法。那么人工智能会不会犯错,会不会学坏,会不会“自甘堕落”呢?

这是有可能的,比如现在的手机都在突出人工智能特性,能够根据使用者以往的操作习惯、既有的算法规则,为使用者提供建议或者主动的决策。曾经开车使用导航,导航默认会优先选择高速,那么这样的结果就是无论是多远的路程都会提供高速路线,乃至于本来可以通过普通城市环线的路线被指定为高速。那么,如果用户无意识的选择了高速,人工智能则会记录这种习惯,那么如果无人驾驶汽车会不会违背用户本来是要走城市环线观赏沿途风景的意志呢?当然机器可以学习,或许能够弥补这种问题,但并不代表它不会犯错。

那么就引发出一个问题,手机经常会提示用户选择一些操作,然而用户的认识无法作出正确的区分和判断,有或者是无意识的屡次错误碰触或者选择了一些选项。那么机器学习在此基础上形成的算法规则将会在相当长时间里会为用户作出错误的预测和智能决策,在一个独立的机器上它可能根据自己的“遭遇”形成自身的行事规则,这种带给用户的不确定的错误可能性就将会是存在的。

既然人工智能的主动学习来源在于人和环境,那么跟随什么样的人去学习就会建立更为细化更接近命令者习惯的行为规则。正所谓“近朱者赤、近墨者黑”,如果缺乏有效的人工智能世界的价值观或者基本协议,如何保证人工智能不会成为又一个我们“自己”呢?

无人驾驶作为最为前沿的人工智能技术目的在于减少人为的干预而实现车辆自己的行驶,以减少交通事故、提高交通效率。但不同厂家的无人驾驶系统如何保证互相能够建立共有的互让和通信规则,或者将自身的安全最大化?如何能够保证无人驾驶的汽车们不会成就另一种人类驾驶行为呢?

因此这里隐含这一种更为根本的差异在于:人工智能缺少人类法律背后所隐含的价值观的基础。法律从立法者(包括广义的立法者公众)那里获得一些基本的精神、立场和原则,比如尊重自由、维护公平、讲求秩序、保障安全。而人工智能所要缺乏的底层规则就是它的主动学习应当是有意义的,或者是有边界的,那么人工智能会根据自己的“遭遇”自己修正算法规则,但都不应违反人类社会对于工具目标的最大容忍,不可以超越和践踏人类社会的基本价值。

至少,人工智能产业现在缺少一种秩序,即并未建立起一种共有的协议,去监督或事约束人工智能的主动学习和进化。那么就需要承担一种风险,当它进化到足够高的程度,能够自主去修正规则、完全按照自己的遭遇和需要,不加价值判断和取舍的去改变一些规则的时候,作为最终命令者的人,是不是已经觉得控制违背价值观的风险已经太晚了?

所以,科技界应当有一种危机和责任,就是需要重新反思和完善我们对于人工智能的期待与目标。除了解放人类,去从事重复甚至不适宜人类直接从事的工作外,是否需要在最基本的算法规则或者硬件指令上达成一种共识或是协议,保障人工智能的发展不违背人类世界,最基本的价值观呢?

这不仅仅是一种可能和假设,因为就像法律和人工智能只是在基于过往预测未来,却对真正的未来没有真正的可靠的策略。可靠的经验可能提高可靠的预测,但也可能对预测的失误缺乏真正准确的建议。毕竟在强大的机器运算面前,人可能更富有自然理性,但也往往错漏百出。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180519G0XBU100?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券