首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

特斯拉被植入了“阿西莫夫”三原则?自动驾驶“撞死”机器人

在1950年,阿西莫夫出版的「我,机器人中」,引言部分的小标题就是「机器人学的三大法则」:

一、机器人不得伤害人,也不得见人受到伤害而袖手旁观。

二、机器人应服从人的一切命令,但不得违反第零、第一定律。

三、机器人应保护自身的安全,但不得违反第零、第一、第二定律。

在公共利益和技术神话之间,特斯拉正站在一个难以左右平衡的边缘。

据美国媒体报道,CES前夕,在美国拉斯韦加斯的天堂路上,一辆处于自动驾驶模式的Tesla Model S在行驶中撞倒了路边经过的一台机器人。

这是一场极具魔幻色彩的车祸。如果用一句话概括,一台来自俄罗斯的礼宾机器人,在向展厅行走的过程中突然离队,并被美国的自动驾驶汽车撞翻在地。看起来,这像是科幻电影里才会出现的交通事故。

围观者或许会为这起没有人员伤亡的“事故”感到好奇,但对于特斯拉和关注着自动驾驶的人来说,这更像是在CES前夕,技术向人类发出的另一种警告:面对一个智能与信息化的未来,算法和人类都准备好了吗?

今天,特斯拉发现自己陷入和公众在解释权的争夺中。特斯拉不断强调,汽车上的自动驾驶系统,只是一套辅助驾驶系统。开启它,并不意味着驾驶员就可以什么都不做,司机仍需时刻注意路况,随时接管方向盘。

从自动驾驶的分类看,今天特斯拉所使用的辅助驾驶技术其实只是分类中的L2,也就是部分自动驾驶。在这一级别中,尽管汽车可以进行驾驶操作,但周遭环境监控依然要依靠人类驾驶员。

但如此之多的事故发生,证明L2级别,是存在一些技术问题的。比如说,公众无法搞明白L2级别的自动驾驶技术中,人类驾驶员的责任在哪儿,哪些是系统无法完成的。因此,在所发生的事故中,多数司机都是在把方向盘交给系统之后,自己出现了注意力不集中的行为,而事故往往就此发生。

这一功能的问题在于,辅助的边界是无法定义的。就算在技术和说明书上能够划分清楚,但在实际的驾驶体验之中,驾驶员必然会因为对这一功能的依赖而出现注意力涣散的行为。这是人性的弱点,也是算法无法估测的。

事实上,2017年10月,谷歌旗下的自动驾驶部门Waymo宣布,暂停开发自动辅助驾驶功能,给出的理由正是他们发现,在实验中,人类会出现对该功能的过度依赖现象。

作为科技和制造业的闯入者,特斯拉在早期曾依赖被神化的“自动驾驶”而博得无数喝彩。今时今日,自动辅助驾驶系统也是不少人对其“创新科技”的期待。因此,特斯拉没法像谷歌一样,潇洒地宣布弃用这一系统。而这一不完备的过渡性功能,今天又成了特斯拉的新麻烦。

这也是很多科技公司正面临的麻烦:新的技术总有新的危险,在危险未完全排除前就广泛应用,任何一个小缺陷,都会引爆一个公共事件。

在公共利益和技术神话之间,特斯拉正站在一个难以左右平衡的边缘。自动驾驶技术或许是不可逆的未来,但在未来到来前,我们都应当变得更慎重一些。

距离“阿西莫夫三原则”的提出三十年过去了,我们的机器人——准确地说,是操纵机器人的人工智能——真的在逼近阿西莫夫所说的那一天。事实上,人工智能恐怕再过一段时间就要抵达技术奇点,发生爆炸式增长。未来为了约束“超级AI”,阿西莫夫三原则可能被植入到越来越多的AI当中。

北京国算信息科技有限公司是由襄阳畅联信息科技联合江苏南大灵盾、中唱传媒以及IKWORKS株式会社成立的,有着国企、高校背景的中日合资企业,主营业务:软件开发、系统集成、金融科技、人工智能。

2018年9月四家企业以现有核心技术强强联手,将重心转移至金融科技、智能投顾领域, 将推出一系列拥有核心技术、知识产权的金融服务类产品。为企业、机构和高净值群体提供量化投资解决方案。

国算科技四家股东单位,是社会资源、师资力量、技术储备和实践运用上强强联合。

更多科技资讯请点击进入以下网站

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190109A0CK0R00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券