首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

特斯拉又失控了,狂奔致多人死伤!“自动驾驶”技术,到底靠谱吗

近日,特斯拉又失控了,准备停车时却忽然失控狂奔,时速近两百,连撞多车后致多人死伤,其中包括司机自己!那么,“自动驾驶”技术到底靠谱吗?

近日,广东潮州饶平县一辆特斯拉Model Y,准备停车时却忽然失控狂奔两公里,连撞多车致2死3伤,这已经是特斯拉今年再次失控了,今年7月,作为赛车手的林志颖驾驶特斯拉Model X携子出行,结果车辆忽然失控,撞上分道护栏致使百万豪车焚毁,幸亏众人及时伸手救助,林志颖和其儿子仅受轻伤。

那么,“自动驾驶”技术到底靠谱吗?结论是简单且肯定的,不靠谱,因为“自动驾驶”技术,在目前,从名称上就是忽悠消费者,当前所谓的“自动驾驶”都只能叫“辅助驾驶”,而不能叫“自动驾驶”,我们离“自动驾驶”还有很长的路要走。如果意识不到这一点,出现车祸的风险,反而会成倍地提高。

发文不易,如果大家喜欢,请加关注并长按3秒点个赞吧,精彩继续。

首先,“辅助驾驶”水平有高低,今年8月,宁波一位小鹏 P7车主,驾车与一辆故障车相撞,造成一人死亡。原因在于车主买的是一辆低配车,低配的不只在于动力和内饰上的低配,连“辅助驾驶”功能也是低配的:“毫米波雷达、运算芯片、高精度定位系统”等都相差巨大。车主以为自己的车是很智能的,结果超出了低配“辅助驾驶”的边界,于是就出了事故。

其次,“辅助驾驶”无法解决“静态白色大背景障碍物”的识别困境,这类障碍物典型的样子,就是一辆正在横穿马路的白色半挂车。当使用“辅助驾驶”去判断时,白色的大货柜和远处晴朗天空中的白云,偶尔会融为一体,所以,此时的大货柜就会被识别为天空的一部分,于是结果就是,车辆没有减速就直接撞了上去。

再次,“辅助驾驶”导致了“车主困境”,会被车企和车内提示无数次警告,“辅助驾驶”不能代替真人,要准备好随时接管车辆,但车主不知道,几百小时正常运转中,偶尔几秒的错误,会在什么时候出现,所以,车主不得不高度集中注意力,随时准备踩下刹车,但很可能忙中出错,错将油门当成刹车,反而酿成了事故。

对于“自动驾驶”这件事,评论区里说说你的看法吧!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20221113A051QB00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券