首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

解决不了3个逻辑问题,自动驾驶很难有大发展

随着汽车智能化的发展,自动驾驶技术也在越来越成熟。马斯克的特斯拉可以算是本领域中做的比较好的车企,它为我们勾画了一幅未来完全自动驾驶的场景。在未来自动驾驶时代,你无需自己驾驶汽车。只需要在出发地,用自然语音告诉Tesla汽车要去的目的地。Tesla就会自己规划好路线,会自己识别路上的行人、车辆、障碍物。会自己变道,会提前感知危险,并作出安全的操作。

这场景听起来实在太美好了。理想越丰满,现实往往越骨干。目前,特斯拉的自动驾驶不仅还停留在L2辅助驾驶阶段,而且还问题不少。一会儿被说“刹车失灵”,一会儿又被说“莫名加速”。特斯拉虽然在努力解决问题,并提升自己的自动驾驶能力。但下面这几个决策逻辑解决不了,终究难成大器。

1、相信电脑,还是相信人?

再好的技术都有出错的时候,再聪明的人都有犯糊涂的时候。把有自动驾驶技术的电脑和聪明的老司机放在一起,车企到底该相信电脑还是相信人?选择相信谁,就必须将车辆的最高决策权交给它。下面就来看看两者的矛盾。

● 相信电脑:它可以依靠各类传感器感知世界,可以通过强大的算力和智能的算法来作出精准的驾驶行为。然而,摄像头会误判,传感器也会失误,就连行车电脑也有可能出现宕机的情况。如果真的出现这种情况,那又会造成什么样的灾难呢?恐怕比人类的失误危害还大。就像特斯拉的汽车,曾经就把

● 相信人:人类驾驶员会根据自己的习惯和道路的情况,选择最适合自己的驾驶操作。面对各种紧急情况,人类会作出机器无法作出的决定。但人类驾驶员也很容易出现情绪化驾驶、疲劳驾驶、误操作等问题。目前很多交通事故都是由于人类的这些问题引起的。

看完上面的矛盾,感觉汽车的最高控制权给谁都会有问题。目前,车企更愿意相信电脑,毕竟这是它们的技术优势。它们觉得电脑的失误可以通过技术手段来弥补。但事实上,这很容易掉入技术坑里。比如:为了弥补摄像头的误判,引入雷达传感器辅助。但这两个传感器传回的信号如果完全相反,车企又该把信任投给那给呢?这不会有正确答案,因为最高决策权只能给一种技术,而一种技术恰恰又无法做到100%可靠。

2、危险来临,优先保护车内还是车外?

自动驾驶汽车虽然能够提前感知危险情况,但是,面对危险情况,为了安全起见,汽车应该优先保护车内还是车外呢?下面我们来看看两种选择的矛盾。

● 优先保护车内:这会赢得车主和乘客的青睐,市场销量会比较好。但是,面对安全事故,车外人的命也是命啊。车企凭什么就把他们摆在更低的地位呢?这是车企在面对法律和道德质问时一定会碰到的难题。

● 优先保护车外:这会让汽车上路行驶更保守,也会让行人感到更安全。但是,如果真的出了事故,车主和乘客成了受害最严重的人。你想想看,还有谁会愿意买这样的车呢?这也是车企头疼的问题。

这样矛盾的问题,人类司机也会碰到,而且处理起来一样很矛盾。比如:选择紧急刹车,可以保全行人,却会让自己丧命;选择慢刹车,自己可以保命,行人却会丧命;面对这样两难的选择,真的很难。有人会说,我是司机当然选择保护自己。但是,如果行人是你儿子呢,又该如何选择?

3、酿成事故,责任在车,还是在人?

交通事故在所难免。在人类驾驶的世界里,酿成事故自然是司机承担责任。而在自动驾驶的世界里呢?是车企承担,还是车主承担?这个问题虽然不需要车企来考虑,但法律需要考虑这个问题。法律如果没有定义清楚这个问题,出事故就很容易出现扯皮。甚至会出现有人钻空子,利用自动驾驶来杀人都有可能。当然,法律是不会让人钻空子的,一定会不断完善。法律的变化也就直接影响着车企的技术方向,从目前来看,各国都还没有非常完善的法律,所以,车企也还没有完全确定自己的技术方向。

总结

自动驾驶是未来的发展趋势,但在这个发展过程中,有很多很多的技术问题、法律问题需要解决。但最难解决的就是前面说的三个逻辑决策问题,如果这三个问题不解决好了,自动驾驶难成大器。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20210627A08WLZ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券