首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

“研判”取消最后的超声波雷达,特斯拉为何坚持纯视觉方案?

文/土木

近日,特斯拉对外发布声明,表示从10月开始,欧洲、北美、中东地区交付的Model 3、Model Y,将取消超声波雷达传感器;随后还将继续在全球范围内陆续取消Model 3、Model Y的超声波雷达传感器;明年售价更贵的Model S、Model X也将不再配备超声波雷达传感器。

加上此前已经移除了毫米波雷达,特斯拉车上的感知传感器只剩下了摄像头,这就意味着特斯拉的自动驾驶将采用100%纯视觉方案。

其实一直以来特斯拉所坚持的纯视觉自动驾驶方案就被消费者和业内人士讨伐,但特斯拉并不为所动,非常坚定的在这一条路上走到黑,所以从之前取消毫米波雷达以及这次的超声波雷达应该也算是意料之中。

那么如此坚持纯视觉方案的特斯拉究竟是不是像大多数认为的,单纯的就是为了降低成本呢?值得探究。

毋庸置疑,就是为了省成本

如果站在商业的角度,取消雷达就是为了进一步的降低制造成本,这一点毋庸置疑。

众所周知,目前的自动驾驶基本被分为两个流派:激光雷达方案和纯视觉方案。而抛开硬件方面的差异,究其背后的根本理论差异,那就是:

激光雷达方案更注重单车硬件系统,是靠硬件扫描出的海量高精度数据来实现识别的方案;而视觉方案则相反,是轻单车硬件,重软件算法、云计算和大数据协作来实现识别的方案。

就目前而言,制约自动驾驶发展的一大原因就是:成本控制问题。随着“智能化”开始成为汽车的主要卖点,越来越多的高科技智能产品开始出现在汽车上,这也随之带来了一个问题:造车成本开始显著提高。

我们可以简单的算一笔账:目前市场上一个200万像素的摄像头均价大概是150元左右,500万和800万像素的则分别是200元和500元左右,而最便宜的激光雷达最少也需要1200元以上。成本差异,显而易见。

而根据马斯克所坚持的“第一性原理”,自动驾驶普及的前提就是低成本,既然要低成本,那么就把成本压到最低,所以即使是已经非常成熟、成本极低的超声波雷达特斯拉也没打算留下。

取消了超声波雷达有什么影响

首先我们需要了解一下超声波雷达以及它在特斯拉车型上的作用:抛去复杂的技术讲解,超声波雷达就是已经被量产装车几十年,在我们倒车时能够发出“嘀嘀嘀”警示音的那个东西。

所以在特斯拉车型上,它的主要作用就是作用在自动泊车场景。所以,特斯拉取消了超声波雷达,车就没办法识别近距离的障碍物,短期内在没有新推送的情况下,这一批车会暂时限制自动泊车功能,甚至倒车警示音也没有。但在后续升级后,特斯拉就会凭借车上的摄像头实现纯视觉的自动泊车。

但其实相对于作用有限的超声波雷达,特斯拉当初取消毫米波雷达才是最受争议的。毫⽶波雷达的作⽤主要集中在⾏⻋过程中,可以看穿⾬、雪、雾和灰尘,在检测和响应前向物体⽅⾯发挥着⾄关重要的作⽤,可以增加对⻋辆的识别感知。

而在取消毫米波雷达之后,特斯拉的车型也确实经历了一段时间性能下降,比如在刚取消毫米波雷达的时候对辅助驾驶功能进行限制最高速度,同时还有车主反映了幽灵刹车增多的问题。

但在接下来的两年中,随着FSD的不断迭代升级,特斯拉拿掉毫⽶波雷达的影响几乎已经被完全解决。

取消雷达是因为已经不需要雷达

在2021年特斯拉的AI day里面,特斯拉已经详细的介绍了自己的自动驾驶方案,这套方案就是模拟人类驾驶的过程:视觉辨别—大脑神经计算—身体执行。

特斯拉的8个摄像头就是用来模拟人类的视觉;而大脑神经思考,特斯拉则是构建了一个多任务学习神经网络架构HydraNets(通过一个主干网络处理8个摄像头传入进来的原始数据,利用RegNet残差网络和BiFPN算法模型统一处理,得出不同精度下的各类型图像特征,供给不同需求类型的神经网络任务所用)。

8个摄像头获取的单帧图片画面都不同,从而构建出一个3D的场景。但是实际上,摄像头捕捉的画面虽然是实时的,但是在计算机处理的时候,这些画面都是静止的。

所以为了让车辆拥有“记忆力”,特斯拉将行驶的环境特征提取出来,再标记时间,形成一个特定的3D+时间组成的4D空间,放入数据库,训练自动驾驶。

并且自动驾驶还需要考虑到车辆以外非静止的物体,比如其他车辆、行人、非机动车等,所以也会捕捉这些行为的特征,放入数据库进行训练。当车辆在遇到此类状况时候,就能够采用与实际情况更加符合的解决方式。

当然,这些数据显然是不够的。所以特斯拉搭建了自动标注流水线,用45秒-1分的视频,包括大量传感器数据,交给神经网络离线学习,随后用大量机器和人工算法,生成可以训练的数据。

另外,特斯拉还采用了影子模式来取代测试车队。影子模式本质上是通过众包的方式来解决场景的快速积累问题。在这一模式下,即使在有人驾驶的时候它的自动驾驶系统也在计算着自己应该做什么,它还会跟人的选择进行比较,如果不一致就会将这类数据汇总起来交由工程师判断自动驾驶系统的选择是否合理。在这方面,特斯拉的高销量功不可没。

而为了更好的训练神经网络,特斯拉还采用仿真场景的技术,用来构建现实中不太常见的场景,这必然是很考验计算机的数据处理能力。

所以特斯拉自研的Dojo超级计算机系统显得至关重要。该系统的单个训练模块由25个特斯拉自主研发的神经网络训练芯片—D1芯片组成。每个D1芯片之间都是无缝连接起来的,相邻芯片之间的延迟非常低,训练模块最大程度上保留了带宽,配合着特斯拉自创的高带宽、低延迟连接器造就了其在不到1立方英尺的体积下,9PFLOPs(9千万亿次)的超强算力。

这种纯视觉方案使用的摄像头硬件成本低,并且由于只有一种传感器,在感知决策时也不需要进行算法权重的分配。但这种方案对于视觉算法的要求非常高,能不能够解决摄像头测距不准、天气环境等影响很关键。

而现在,特斯拉能够取消所有雷达,真正的做到了100%纯视觉方案,那么极可能在算法方面已经有了突破进展,已经不再需要雷达了。

还有一条不同路线

关于特斯拉为代表的纯视觉和国内厂商主攻的多传感器路线,已经被多次讨论过了,但其实在实现自动驾驶的大方向上它们算得上是同一阵营,即“单车智能”。就是不论技术手段如何,这些车企都是基于量产车自身的感知和决策来实现自动驾驶。

而与之相对的还有另外一条实现自动驾驶的路线,那就是“V2X车路协同”,就是用类似轨道交通统一调度的方式实现自动驾驶。在技术细节上,两种路径其实并不是完全独立。

比如特斯拉、小鹏、华为等企业不仅利用量产车海量的数据训练算法,也开始借助众包的方式构建高精地图库,一定程度上也算是结合了V2X云端共享的思路。

但就现在的发展情况来看,纯粹的V2X路线是难以实现的。主要原因在于技术上和商业上均存在瓶颈。

从技术角度来说,车辆可以将采集到的地图信息上传到云端,但短期内不太可能将采集到的所有细节实时共享给其他车辆。

除非能做到封闭道路+道路交通所有参与者全部接入自动驾驶系统(地铁就是如此),否则V2X很难确保安全。

从商业角度来说,车路协同需要海量的基础设施投入,而营收路径却不明确。

所以,相比做好高阶辅助驾驶就有助于车辆销售的单车智能,车路协同未来的不确定性太大,自然也就被大多数车企放弃。

而关于未来究竟是纯视觉方案还是多传感器融合方案胜出这个问题,笔者认为:最大的可能还是,两者共同发展,且都拥有庞大的市场规模和受众。

以特斯拉为代表的纯视觉凭借低成本优势和超高利润,将手握更多底牌,但消费者的疑虑或将难以打消;而多传感器融合方案的国内厂商,则会凭借更稳妥的处理方式,收获更过愿意尝鲜的消费者。

至于未来究竟如何,还是得市场说了算。

写在最后:

取消超声波雷达是特斯拉实现纯视觉方案的最后一步,凭借纯视觉算法就已经能够代替雷达的所有功能,这也表示特斯拉已经进入到了自动驾驶研发的深水区。

笔者也非常认同网络上大家的呼声,特斯拉这一决定就是为了节省成本。但无论是汽车还是任何一个其他领域,研发本质上就是为了降低成本,但是研发投入却同样是一大笔资金。

如果特斯拉只取消雷达而不研发新技术代替、升级,自然没得洗。但在取消雷达的基础上,如果能够带来更好的体验,相信消费者还是愿意看到的。

最后,自动驾驶是未来,但究竟是通过哪种路线去实现,我们现在还不得而知,但最重要的一点:一定要足够安全。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20221017A02WSQ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券