首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

以哲学之名重塑AI伦理架构:对认知、程序、规范和自由意志的考量

作为AI公共政策研究者,我对AI的发展充满了好奇和期待。此文受欧盟《通用数据保护条例》(GDPR),IEEE《人工智能设计的伦理准则》,以及牛津大学互联网研究中心《算法伦理的争议要点》一文启发,讨论人工智能在认知,程序、规范以及自由意志方面给人类带来的挑战。

1.认知方面(Epistemic Concern):算法的逻辑基础本身是否具有不确定性

以目前我们对人工智能的理解,算法使用的学习方法类似于人类学习知识的过程。具体来说,人类通过海量数据训练数学模型(算法),再以数学模型建立智能化业务的系统和应用。这个流程的逻辑基础为推理(induction),也就是利用相关性(correlation)比较显著地经验总结出一个结论或者模型,再由这个结论或者模型对更多的现象进行演绎(deduction)。

在AI领域中,演绎的过程也就是把AI应用于商业用途的过程。问题在于推理这个逻辑工具本身具有三个弱点:

其一,相关性不能证明因果关系(causality);

其二,有必然的不确定性(uncertainty);

其三,由于知识局限而必然产生的错误几率(fallibility)。

当然几千年来人类都是用推理和演绎的逻辑工具完成知识积累的,但区别性在于:第一,人类对自我知识和认知有主体责任;第二,人类在突破以往知识局限以后会以显性文字或图像修复结论。而对于AI来说,如果算法本身具有非因果性,不确定性和不可避免的错误几率,那在应用当中我们是否应当在某些追求确定性的社会领域,如银行,司法等相对限制AI的决策权呢?

2.程序方面(Procedural Concern):数据的不可解读及不可追溯性带来的挑战

如果将AI算法比作一个公司的产品,那么可以毫不夸张地说,现在这类产品基本处于无质量监控和动态检测的状态。打个简单的比喻,即使是冰淇淋,也要标注奶,糖,水,色素,甜味剂,稳定剂,防腐剂等各种原材料的成分,营养值。同时在工厂内部一定有一套完备的可追溯系统,确保当产品出现问题时可以及时联系供应商来解决产品质量问题。

那么对于AI算法来说,我们是否知道训练数学模型的大数据的来源?范围?质量?是否脱敏?是否有系统性偏差?我想不能仅仅因为数据过于庞大,甚至超出个人的认知范围就推导出我们不需要知情权的结论。

恰恰相反,正因为不同于冰淇淋,AI将对人类社会产生颠覆性的影响,那我们就更应该在数据来源上加以规范,在原料上加以质量把关。同时关于可追溯性和召回的问题,我们是否有标准判断一个算法的质量是否合格?如果算法对社会造成重大影响,我们是否需要类似于缺陷汽车召回的制度来保障社会的安全?

3.规范方面(Normative Concern):算法是否会导致不公正的结果

所谓不公正的结果,绝不是说算法开发者有意在算法中放入不公正的评价标准以歧视特定人群。就像John Rawls所说,除非我们每个人都把自己放在无知的面纱(a veil of ignorance)后面,不然我们每个人都拥有特定的身份属性,包括性别,种族,知识结构,家庭环境等等。而这些属性就像宇宙中的星尘,也许平时你不会感受到它们的存在,但它们却决定了你的基本构成。

同理,由于特殊的属性,一个公司的一个算法必然有它自己的特点,那么所谓“不公正”简直是一个必然的结果。对此我有两点回应:

第一,就像社会中的其他产品一样,不公正或者优先性(preference)并不可怕,可怕的是在一个行业内的每一个产品都有着同样的不公正和优先性(比如女性只能穿裙子,不能穿裤子),使消费者无法选择,那便造成了系统性的不公正。由此竞争和多样性便是解决这一问题的唯一办法。开放性的市场环境是保证AI时代享有公平结果的至关重要的因素。

第二,在涉及如银行,司法等敏感领域时,数据主体(data subject)有权利不接受由人工智能自动处理得出的结论并要求提供解释(详见欧盟GDPR第二十二条)。如果我们能在制度设计方面保障市场开放性并赋予消费者拒绝算法决策权的话,那么我们也许能够减少算法不公正性造成的负面后果。

4.哲学方面(Philosophical Concern):人类将决策转移给算法之后如何解决自由意志的问题

在关于人工智能的很多讨论中,都有机器人是否会控制人类的问题,我觉得这也是所有问题里最有趣,也最抽象的一个问题。所谓“机器比人聪明”不是机器控制人的充分必要条件。从哲学角度,我认为人类自由意志的基础来源于自我的决定权,而决定就意味着自我风险,自我给社会带来的风险,以及在行为之后承担相应后果。

拿自动驾驶来说,人类驾驶意味着道路上充满各种风险:醉酒驾车,疲劳驾驶,危险驾驶等等。而将决策权交给算法以后,一方面我们可以大大降低以上非法行为的风险性,另一方面我们也将相应的责任转移给了算法。那么,一个没有自由意志的算法如何承担主体责任呢?更确切的说,一个没有自由意志的算法如何被认定为法律主体呢?

对我来说,人类对于自我决定权的转移(the transference of autonomy)从很大程度上反应了人类对于自由意志的反感和集体恐慌。通俗一点说,就是很多人不愿意承担自己决定的相应后果,于是一个机器的决定可以使他们摆脱自己应当承担的相应的责任,可以令人暂时安心并停止焦虑。然而逃避了风险和责任的人类就真的更加安全么?认识到自己有无限可能真的就那么令人焦虑么?还是说更多人本身就愿意像机器一样被一种大于人类的力量控制,按照指令去生活呢?

本期话题:构建人与算法之间的信任,需要什么样的机制?

关于45 Society:聚焦人工智能对法律和法律行业的影响,探索面向2045年的法律文明和智能社会。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171215G0OG4C00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券