首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

从“电车难题”谈起:人工智能创业伦理问题如何解决?

电影《机械姬》剧照

1

人工智能之初应当性本善

机器伦理并不是新鲜话题。

多年前就有这样一则笑话:外星人考察地球后发现,地球上的主要生物体被称作汽车,汽车里面住着许多被叫做人类的寄生虫。

早在标志人工智能诞生的1956年达特茅斯会议之前的1942年,美国作家艾萨克·阿西莫夫就在其短篇科幻小说《环舞》中提出了让机器“性本善”的机器人三定律:

第一定律,机器人不得伤害人类或坐视人类受到伤害;

第二定律,在与第一定律不相冲突的情况下,机器人必须服从人类的命令;

第三定律,在不违背第一与第二定律的前提下,机器人有自我保护的义务。

虽然这三个定律来自70多年前的科幻作家,却一直伴随并深刻影响着人工智能技术的发展,就像悬在空中的“达摩克利斯之剑”,时刻警示着人们防止人工智能像罂粟花一样美丽绽放之后结出恶果。

与很多技术一样,人工智能可以用于好的方面,也可以用于坏的方面。虽然人性本善还是本恶讨论尚无结果,但是人工智能之初应当性本善,却很早就达成共识,特别是在人工智能大爆发的今天,如何让这一技术符合伦理道德准则,成为各个国家和企业都要解决的首要问题之一。

相比较炸药等技术,人工智能技术的社会互动性更强,其自主学习等能力使其更具能动性,甚至有人提出要给予人工智能法律主体身份来对其进行规制。总而言之,人工智能应当负责任。

2

人工智能伦理是个难题

从善如流对人类而言并非自然而然。哲学家罗素认为,“在一切道德品质之中,善良的本性在世界上是最需要的”。“最需要”往往意味着“最稀缺”。

耶鲁大学心理学教授保罗·布鲁姆在多年实验研究的基础上发现,每个人内心都活着一个苛刻的“道德家”,成为一个好人不容易。

同样,人工智能伦理也容易口惠而实不至。最近的一则案例是与巴黎圣母院大火有关。谷歌旗下视频服务公司YouTube为了遏制虚假新闻在自己网站上传播,自2018年开始在新闻视频中加入指向维基百科和百科全书条目的链接,这原本是件“好事情”。

但是,2019年4月巴黎圣母院大火后,YouTube却在关于大火的一个直播视频下自动关联了9.11恐怖袭击事件链接,也就是网友在浏览巴黎圣母院大火直播报道时,会被推荐关注大英百科全书的9·11事件词条。这一关联立即引发了网友强烈不满,甚至被批评为混淆视听和制造阴谋,这可真是件“坏事情”。

如何判断“好事情”与“坏事情”并非易事。来看看伦理学领域著名的思想实验之一“电车难题”。随着无人驾驶汽车日益普及,特别是一些无人驾驶车祸事故的发生,“电车难题”成为保证无人驾驶安全性甚至人工智能伦理必须要思考的问题。

这个实验大致内容是:一辆有轨电车正朝五个人驶去,挽救这些生命的唯一方法,就是控制开关让电车驶向另一条轨道,但这样做则会碾压另一条轨道上的一个人。在这种场景下,你会选择打开开关、换一条轨道吗?

对此,麻省理工学院参考“电车难题”设计了“用户应该撞向路人还是撞向障碍物(乘客会遇难)”等场景,在2016年启动了一个名为道德机器(The Moral Machine)的在线测试项目,收集整理公众的道德决策数据,并在2018年10月的《自然》杂志发表了他们的研究发现。

研究人员对9个不同的因素进行了测试,其中包括用户更倾向撞到男性还是女性,选择拯救多数人还是少数人,牺牲年轻人还是老人,普通行人还是横穿马路的行人,甚至还会在地位低和地位高的人之间做出选择。来自233个国家和地区的数百万用户共计4000万个道德决策的数据反映出一些较具一致性的全球偏好(global preference):更倾向于拯救人类而不是动物、拯救多数人牺牲少数人、优先拯救儿童。

不过,思想实验还需要与实践做法形成共振。虽然研究表明,大家倾向于拯救多数人牺牲少数人,但是,在少数人是自己的孩子、多数人是陌生人的场景下,不少测试者会放弃转向,保护少数人。

奔驰公司面对这个难题给出了正面回应:“奔驰的下一代无人驾驶车“会优先保证车上乘客的安全。如果有可能拯救生命,那么一定要先救车上的乘客。”但这样的回应,又引发了新的争论。

3

谁在决定人工智能伦理方向

因此,让“疾驶”的人工智能做善事,除了“电车”技术本身,更应该关注决定技术转向的人。对此,首先想到的突破口是引领人工智能技术发展的三驾马车——算法、算力和算料,也就是让算法、算力和算料背后的人不犯错误、积极向善。

人工智能算法的标志是深度学习,与人工神经网络密不可分,是人工智能焕发生命力量的来源。前文YouTube的例子,就是因为算法出了问题,公司已经承认“这些面板是通过算法触发的,有时会犯错。”

不过,依赖顶尖科学家来完善道德算法以解决人工智能伦理问题也潜藏巨大风险。纽约大学AI Now研究所在2019年4月发布的报告中发出警告:人工智能领域教授中的女性和有色人种比例严重不足,白人男性编码人员过多就可能带来潜在的无意识偏见。为此,研究所建议企业能够发布更多按照种族和性别划分的补偿数据,来规避“多样化危机”。

人工智能的算力以芯片为标志,具有专用架构,应用在云端和终端不同场景,是实现算法的载体。比如AlphaGO需要1920个CPU和280个GPU才能完成计算。

虽然算力看上去是不好不坏的稳定中间派,但是,作为支撑算法的效率加速器,当人工智能伦理方向出了问题,算力水平越高,则带来的危害越大。这就不难理解为什么很多人会把“芯”片解读为“心”片,算法背后的人解决人工智能的大脑问题,算力背后的人需要关注人工智能的心问题:一旦停止跳动,就是给人工智能“拔电源”。

人工智能的算料就是海量数据,没有数据就没有人工智能发展的土壤,引爆这次人工智能热潮的关键因素之一是大数据应用发展最后一公里的打通。这些海量数据背后的人就是用户,进一步来说,算料加工存在道德问题的“始作俑者”可能就是提供原材料的用户自身。

比如大数据“杀熟”,很多人不在知情的情况下被人工智能这个“最懂我的人”伤得最深。人工智能依据大数据形成用户画像、了解消费习惯,进而可以进行精准溢价,但是,用户愿意或者能够做到不把数据甚至隐私数据“喂给”人工智能吗?

由上可见,人工智能算法、算力、算料背后的程序员、科学家、工程师和消费者,都难以独当一面让人工智能伦理转向,那么如何联合更多人的力量让人工智能伦理不跑偏呢?

4

人工智能创业伦理

创业是高度平衡的艺术,创业的关键要素(创业者和团队、创业机会、创业资源)与人工智能核心支柱(算法、算力、算料)以及人文智慧哲学问题(包括伦理)具有异曲同工之妙。同样,在人工智能伦理方面,创业者也在用行动探索着如何让硬技术与软伦理交织融汇。

其实,创业过程与电车难题非常相似:创业过程中,资源是稀缺的、情境是不确定的、风险难以预测、规则尚未完善、竞争压力如影随形。面对这些挑战,创业者通常会在追求个人利益与遵循伦理规范之间陷入两难困境,这也是当前创业伦理研究的出发点。如此看来,除了程序员、科学家、工程师和消费者,人工智能伦理问题的解决之道,不能忽视创业者伦理行动的力量。

可能有人会拿“企业家原罪说”来质疑,不过这种说法并未在研究和实践中得到定论, 相反,更多人不是在创业者伦理属于“光明地带”还是“灰暗地带”的选项中做选择,而是为创业者走出伦理困境“绘制地图”。

比如科技界的亿万富翁、eBay公司曾经的创始人,在2018年成立了总部位于伦敦的组织Luminate,通过设立基金来让公众更好认识人工智能带来的危害,确保人工智能能够维护公平、人类自治和正义的社会价值观。

关于为何进行这项公益事业,Luminate的首席执行官表示:“这是一个新生的领域,我们发现,人工智能是由那些不关心道德后果的程序员开发出来的。” 瞧瞧,程序员伦理并不比创业者伦理的好评多。当然,Luminate给我们的更大启发在于:具有伦理导向的创业行动有助于整合各方力量来解决人工智能伦理难题。

关于创业伦理,创业领域权威期刊JBV在十年前(2009年)曾出版了“伦理与创业”专刊,并围绕技术创新与创业伦理进行了专门讨论。文章提出,技术是价值载体,技术创新特别是“破坏性(disruptive)创新”带来的范式变革,冲击每个人的价值判断,而创业者特别是创业型企业是伦理变革的行动主体,他们往往通过充满想象力的方式来直面“伦理创新(ethically pioneering)”情境带来的问题,甚至还可以说,正是伦理困境成为创新创业的源泉,基于技术创新的创业伦理是未来研究值得探寻的“大道(avenue)”。

5

“上善若水”与人工智能创业伦理行动

人文智慧中也已蕴藏着技术创新问题的解决思路,这也是本专题文章的出发点之一。说到从善如流之道,相信许多人都会想起《道德经》第八章“上善若水”。虽然这里的“善”不只意味着善良,但是,老子总结的、近于道的七点水德——居,善地;心,善渊;与,善仁;言,善信;政,善治;事,善能;动,善时——就蕴藏着人工智能创业伦理实践可以参考的门道。

古今中外的结合更能碰撞出火花,欧盟上个月(2019年4月8日)发布的人工智能伦理准则,也列出了七个可信赖人工智能的关键条件:人的能动性和监督能力、稳健性和安全性、隐私和数据管理、透明度(可追溯性)、包容性(多样性、非歧视性和公平性)、社会福祉、问责机制。把这七个准则与七点水德对照,结合创业行动细细琢磨,不难发现二者表述顺序有所不同,但存在一致性。

为此,下表进行了初步勾勒,而相似观点背后的相通逻辑,特别是示例背后的规律,还有待后续深入挖掘。

关于“上善若水”智慧与人工智能技术的交织融汇,著名社会学家齐格蒙特·鲍曼的“液态社会”思想是很好的佐证。

在十多年前,他在《液态现代世界的44封信》一书中提出“液态的现代性”(Liquid Modernity)理念,认为传统社会像固态磐石,空间维度是底座,而互联网、全球化和技术创新的现代社会像液态流沙,时间维度是核心;流动意味着巨大的不确定性,而不确定自然会带来恐惧与不安。

因此,在被人工智能技术加速流动、增加不确定性的“液态社会”中,人们的恐慌也会加剧,而“上善若水”对人工智能创业的启发在于,如何让技术创新像水一样在流动中“利万物而不争,处众人之所恶”。

6

水流向何方

需要反思的是,人工智能与创业伦理的交融亦非一蹴而就。印度科技巨头Infosys公司的一份报告显示,澳大利亚企业在“全球人工智能成熟度”中排名垫底,原因不仅在于技能的缺乏,更包括对伦理问题的考量影响了该国采用人工智能技术的水平。

其中,几乎三分之二(63%)的澳大利亚企业受访者表示,伦理问题是他们部署人工智能计划的主要障碍;74%的受访企业领导者认为,伦理考量使得人工智能技术不能最大程度的发挥其作用,这一比例也高于其他任何国家。

哈佛大学一位著名心理学家甚至在《波士顿环球报》发表文章认为,过分的伦理监督将干扰创新速度,正面意义很小。生命和疾病是一对孪生兄弟。比如生物领域方面的伦理学规则导致研究被延迟可能会使得许多患者无辜丧命,因为这些治疗方法可能对他们有作用。

可见,伦理对技术的疏堵,不是简单的控制开关阀门,而是一个复杂的系统工程。就像欧盟最新发布的七条人工智能准则,目前是试行版本,尚待企业、研究机构和政府等社会主体对其进行测试。水何去何从,仍需继续观察,如同孔子对子贡的提醒:“君子见大水必观焉”。

本文作者李华晶,博士,北京林业大学经济管理学院教授、博士生导师,北京市青年教学名师,全国优秀创新创业导师,主要研究方向为创新创业管理,在学堂在线开设《人工智能与创业智慧》《创业管理四季歌》课程。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20191022A09LFF00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券