前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >我们可以教会机器人道德吗?

我们可以教会机器人道德吗?

作者头像
iCDO互联网数据官
发布2018-03-05 14:34:02
7560
发布2018-03-05 14:34:02
举报

译者:Amber LI

本文长度为3524字,预估阅读时间7分钟

引言:我们并不习惯关于机器做道德决定的想法,但它们能自己进行常规道德决定的那天正在逐步逼近。来自BBC的David Edmonds不禁发问,我们该如何教会它们做出正确的决定呢?

轿车按照原定时间在早上8点停在你家旁的路口等待接你上班。你坐进后座,从公事包中拿出电子阅读器扫描新闻。这趟行程从未遇到麻烦,之前最多只是略微塞车而已。但今天不寻常的可怕的事情发生了:两个小孩,互相追逐着从长满草的河岸滑落到你面前的马路上。已经没有时间刹车。而如果轿车向左急打方向盘将会撞到迎面而来的摩托车。

没有哪一个结果是好的,但哪个结果是不那么差的?

时间定格在2027年,而你应该知道的另外一件事情是,这辆轿车是无人驾驶。

图片版权: Jaguar land rover

图片标题: Amy Rimmer博士相信无人驾驶汽车将能拯救生命,并降低汽车排放。

我在乘客座位上,而Amy Rimmer博士坐在方向盘后面。

Amy按下屏幕上的按键,然后,并没有多余的其它操作,汽车就非常顺畅的开始行驶,在交通灯前依照信号灯指示停下,然后左拐,在环形交叉路口航行并非常轻缓的靠边停好。

这一趟神经紧绷的旅程大概5分钟,随后就轻车熟路了。Amy, 29岁的剑桥大学博士,是Jaguar Land Rover自动驾驶汽车项目的首席工程师。她负责汽车感应器的感应研发,以及随后的应变机制设置。

她表示,这辆汽车,或其他类似的产品,会在十年内投入使用。

仍然有很多的技术问题待解决。但一个可能推迟无人驾驶汽车投入使用的困难,并不存在于机械或电子技术上,而属于道德问题。

行驶中的汽车面临的两个孩童的困境只是那个哲学上著名的“有轨电车难题”的变体。

一辆火车(或电车,推车)正沿着轨道行驶,而它突然失控,刹车失灵。而灾难正在前方——有5个人被绑在前方的铁轨上。如果什么都不做,5个人会失去生命。但如果你能调整轨道方向并将火车向辅路驶去,你就可以救下这5个人的性命。但坏消息是,有1个人在辅路上,而火车改变行驶方向将杀死他。你该怎么做?

图片版权: 普林斯顿大学出版社

全世界数以百万计的人被问过这个问题,而大部分人选择改变火车行驶方向。

现在我们来谈一谈这个问题的另一个变体。

一辆火车朝着5个人行驶,而此时你正站在俯视轨道的人行天桥上,你身旁有一位背着笨重背包的男人。救下那5人性命的唯一方法是将你身边的男人推下轨道:他会死,但他的背包能阻止火车继续前行。这一次仍然是5条人命和1条人命的选择,但大部分人这一次认为背包男不应该被牺牲掉性命。

图片版权: 普林斯顿大学出版社

这一谜题被讨论了数十年,哲学家们仍然各持己见。实用主义者们,认为我们的行为应该最大化快乐或幸福,认为我们对背包男的直觉是错的。背包男应该被牺牲:我们应该救下5个人的生命。

电车难题显得极端和不现实。尽管如此,在未来,也许会有一些情况下,无人驾驶汽车也需要做出选择:向哪个方向转弯,伤害谁,或谁承担被伤害的风险?这类的问题还有很多。

  • 我们该向它们程式化哪一种道德观?
  • 我们该如何衡量驾驶员,路人和别的车辆内的乘客的生命的价值?
  • 你会购买一辆为了路人的生命而牺牲它的驾驶员的汽车吗?如果你会,那你太不寻常了。

谁来做这些道德选择是个棘手的问题。

政府该来决定这些汽车如何做选择吗?还是制造商?还是身为消费者的我们呢?你会走入展览厅,像挑选车身颜色一样挑选道德模式吗?“我想买一辆保时捷实用版”杀一救五“蓝色敞篷汽车…”

Ron Arkin在2004年参加一个机器人道德论坛的时候对这些问题产生了兴趣。他听取了一位代表的讨论发言,什么样的子弹用来杀人最好——直径大但速度慢,还是小却迅速?Arkin觉得这非常难选择,“我们是否应当为我们创造的技术承担责任。”自此,他开始致力于研究自动武器的道德观。

曾有人呼吁禁止自动武器,但Arkin持相反意见。

如果我们能制造能使平民较少受到伤害的武器,我们必须这么做。他表示,“我并不支持战争。但如果我们愚蠢到一直自相残杀——只有上帝知道我们怎么了——我相信战争里的无辜生命需要被更好的保护。”

和无人驾驶汽车一样,自动武器并不是科幻小说。现时已经有不完全依靠人类控制而运作的武器。

举例来说,有的导弹在轨道中能根据前方可能遭遇的敌方攻击而改变方向。Arkin的方法有时候被称为“自上而下”的。也就是说,他认为我们能程式化机器人,用类似日内瓦公约的东西约束它们——例如,禁止它们故意猎杀平民。即使这是一个极其可怕且复杂的挑战:机器人必须能够分辨哪些是手持刀具准备砍杀的敌人,哪些是手持手术刀准备救治伤员的医护人员。

一个解决这些问题的可行方法是“机器学习”。

Susan Anderson是一个哲学家,Michael Anderson是一个电脑科学家。除了夫妻关系,他们也是专业领域上的合作者。

他们相信,教授机器人道德的最好的方法就是先将普世原则程式化植入(如规避痛苦,追求幸福),然后再使机器学习如何在一些特定情境下应用这些原则,并举一反三到新的情境里。

图片版权: GETTY IMAGES

图片标题:一个Aldebran Robotis生产的机器人正在与敬老院的老人们互动

我们拿Carebots来举例——它们是制造出来用来协助残障或年老人士拿食物或书,或开灯或电视的机器人。Carebot行业预计在未来十年内会得到迅速的发展和增长。和自动武器与无人驾驶一样,carebots也将面临选择。假设一个carebot正面对一位拒绝吃药的病人,也许这样几个小时还没什么问题,毕竟我们希望能尊重病人自己的意愿。但很快我们就需要寻求帮助,因为长期拒绝服药会危害病人的身体健康。

在应用初始价值准则在一系列的两难困境中之后,Anderson夫妇相信机器人会逐步清晰自己该如何选择和行动。人类也能够从中有所学习和收获。

“我认为机器人会比一个平常人做出更为正确的道德选择。”Susan说。Anderson夫妇均表示不会对被机器人照顾的未来感到焦虑和困扰。“比被机器人照顾更尴尬的是被人照顾,”Michael如是说。

然而,机器学习也有其自身的问题。一个是机器可能学习到了错误的示范。

举个相关的例子,模仿人类语言的机器人被发现出现理解偏差。男性和女性的名字总会有不同的联想。机器会更倾向于相信John或Fred比起Joanna或Fiona更适合是一位科学家。我们需要对这些偏差警惕,并战胜它们。

图片版权:Getty images

一个更为根本的挑战是如果机器在学习的过程中发生进化,我们可能无法预知它接下来的行为;我们可能甚至无法搞清楚它是如何得到它的行为结论的。

这是一种悬而未决的可能,尤其是当机器人的要做的选择对我们的生活产生重大影响时。一个局部解决方案是当事情出错时,我们能有方法审阅代码——找到到底发生了什么事情。因为让机器人为自己的行为负责可能既愚蠢也达不到目的(为什么要惩罚一个机器人呢?),我们需要审判在道德上和法理上为机器人的错误行为负责的人。

机器人的一个很大的优势是它们的行为具有一致性。

在相似的条件下,它们的行为一致,不受外界影响。自动武器并不会因为它生气了就做出更残暴的选择。自动驾驶汽车不会醉驾或疲劳驾驶,也不会对后座的小孩大吼。全世界每年有超过一百万人在车祸中丧生——大部分是因为人为错误。降低这个死亡数字是一项很大的功绩。

我们到底该多珍视一致性其实也是一个有趣的话题。如果机器人法官为被定罪的罪犯提供一致的判决,这似乎是对判刑这个职责进行授权的一个强有力的理由。但没有了法官和嫌疑犯的人际接触,是否会有所缺失呢?

伦敦国王学院的John Taioulas教授相信人类间的复杂的人际关系是有价值。“我们是否真的想要一个量刑制度,以机械的方式产生一个统一的答案来回应所涉及的价值观的痛苦冲突?当我们消除人类决策者的个性和责任时,就会失去真正意义上重要的东西。”他表示。

图片版权 Jaguar land rover

Amy Rimmer对无人驾驶汽车的前景感到非常兴奋。这不仅仅能拯救生命。无人驾驶汽车还能减少交通堵塞和汽车排放,会成为“仅有的几件你愿意花钱购买并能为你节省时间的事物”。而它将如何面对电车难题呢?是撞击两个小孩,还是打方向盘迎向对面的摩托车?

Jaguar Land Rover还未开始考虑这些问题,但Amy并不认为这些问题重要:“我不需要回答这些问题来通过驾驶考试,而我也能合法开车。所以,为什么在我们能从中获得便利前,我们要命令汽车必须回答这些并不常见的情境问题呢?”

这是一个出色的问题。如果无人驾驶汽车能在大体上拯救生命,为什么不允许它们在我们找到极端情况的解决方案前先将它们投入使用呢?最终,我们希望我们的机器能遵循道德程式——因为,不管你乐意不乐意,在未来会有越来越多的决策权会从人身上授权给机器。

总结

当然这未来也值得我们的担忧。我们也许不能完全明白为什么机器人做出某些特定的决定。我们需要确保机器人不会吸收和习得我们的偏见。但我们也应当看到潜在的好处。在某些道德决策上,机器人可能比我们更擅长。它甚至可能使我们成为更好的人。

文章来自 BBC Magazine

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-12-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 DigiMax 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档