首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

不停车让行,特斯拉FSD的新毛病,会不会传到中国?

特斯拉CEO埃隆马斯克近日直播了FSD V12的辅助驾驶功能,但是直播中工程师的一句话,让人深思,我们的车会不会变成一个“混小子”?

几天前,特斯拉CEO埃隆马斯克在线上直播了FSD Beta V12版本的试驾情况,引发了超过百万网友的围观,埃隆马斯克表示FSD Beta V12是有史以来第一个端到端AI自动驾驶系统,并且也是特斯拉FSD最重要的一次升级,而整次试驾中,埃隆马斯克仅仅接管了一次汽车,令不少观众对自动驾驶的未来更具信心。

不过,在直播中,工程师简单的一句话,却引起了对端对端技术发展的深思。直播中特斯拉 Autopilot 软件工程总监 Ashok简单提及了一个数据,在美国,仅有0.5%的人会在路口红色停止指示牌处把车完全停下。意味着大多数人面对停止标识,都是选择减速,以极低的速度观察后起步转弯。其实在2022年2月,特斯拉就因为这一功能而被NHTSA要求召回,因为在世界各国,车辆在设有停止指示牌的路口时,需要彻底刹停,观察路况确认安全后再行驶通过,但特斯拉FSD在没有行人和车辆时,只会以0.1-9 km/h 的速度低速开过路口。但是端对端普及后,无法通过编程改进,机器自行学习人们的驾驶习惯,会不会让车辆开的更加“暴躁”?

端对端让网络自行学习,成本降低国内车企也在布局

所谓端对端技术,其实就是自动驾驶重感知能力的一个AI模型,主打的就是感知和决策都一体的设计,在特斯拉FSD Beta V12直播中埃隆马斯克就提到,其实端到端技术的应用,就可以实现输入一个图像,就能输出加速、转向、刹车等信号,只需要简单的分析图像就可以做出一个决策,而不是分模块的逐步处理,将感知、分析、控制模块都放在了一起,用模型直接输出,而模型的训练是完全自动化的,整体训练、调整优化,这样做的好处自然是降低成本,代码高度精简、模块减少。

简单的说,就是通过训练后,端到端模型驾驶就会像个“人”,驾驶体验不会再像一个新手,而是根据真人驾驶的数据,自行做出的决策,他的模型就像人类的大脑,接收图像,就能知道自己应该做什么,是加速还是减速。

国内的部分车企也已经开始布局“端到端”的自动驾驶应用,像是智己IM AD就已经展示了“Door to Door”功能在城区道路和晚高峰场景的挑战中,做到了“全程0接管”,理想CEO李想也曾表示,2023 年底落地端到端城市辅助驾驶,还有小鹏、华为等都已经提出了端到端城市辅助驾驶落地的信息,可以看到这似乎成为了自动驾驶“卷”的下一站。

从这就能看出,端到端技术是一个降低成本,完善辅助驾驶能力的利器,但这些都是它身上的光环,光环之下的阴影,就在特斯拉工程师的这一句话中展现。

端到端模型的自动化训练,会让我们的车成为“混小子”?

以后我们的自动驾驶汽车,也会做出加塞、起步慢等这些令人讨厌的驾驶行为?

端到端的能力,就是通过AI算法做出决策,决策的条件修改不是由人设置的,而是海量人类司机驾驶的数据自动学习的。其实就是此前的自动驾驶,是需要工程师标定一个值,假设,转一个直角弯,工程师标定先打45°,回正,再打45°,安全通过,而机器可能就会直接学习人类的驾驶逻辑,随速随角度的去实时变化。

可问题就出在了这里,AI决策是通过电脑自动决策的,这使得端到端的模型就像是一个“黑盒”,你并不能完全掌控它为何能做出这样的决策,所以你无法干预它的决策过程,也就是说无法直接通过编程改进他的行为,像是前面提到的FSD面对停止标识时,因为大多数人类驾驶的习惯并不能真的停止,后续特斯拉只能通过更多针对性的去给模型大量的“投喂”面对停止标识时真的停车的视频,让模型记住这一情况。

虽然埃隆马斯克表示“现在只需拥有数据,你仍然可以实现控制”,但是这里的训练,其实还是通过优质的驾驶视频来训练,不过何为真正的“优质”,FSD此前的训练想必不可谓不优质,但因为大多数驾驶者面对停止标识没有停车,依然出现了违法的问题。

面对这样已经违法的行为,车企可以通过针对法律法规要求的情况,针对性的进行大量训练是可以解决的,因为这些事情的对错很容易区分,违法就是违法,那么遇到停止标识就必须将车速降至0km/h,针对性的训练就好。

但是现实中开车是一个非常复杂的事情,不违法但又令人讨厌的行为并不是没有,比如加塞行为就是一个比较令人讨厌的行为,但是并不违法,在端到端的模型中,既然人类无法控制电脑进行决策,但经过大量司机驾驶的模型可以学习到,虚线变道并不是一个违法行为,但是需要变道时目标车道已经排起了队,那么AI模型的加塞行为就可能成为现实。马斯克还提到了,当人类对汽车进行干预时,干预行为就会自动上传,训练与训练相结合,虽然只是更新权重,但依然对辅助驾驶的决策有影响,那么驾驶过程中,人工干预辅助驾驶并且实施加塞这件事,恐怕就会成为AI学习的对象。

在解决方法上,其实强化训练似乎并不是一个好方法,因为加塞行为虽然令人讨厌,但他并不是违法的,无法界定这其中的“对错”,技术角度上讲,AI的决策并不能说是错误的。并且有些情况下的“加塞”行为并不是错误的,比如前方发生事故或者障碍物,那么变道是一件很正常的事情,似乎难以通过训练而让自动驾驶不加塞。更好的方法是通过智能交通去联合改进这一功能,包括实时更新的车道级导航,必经的目标车道如果拥堵,需要实时反馈给车辆,让车辆辅助驾驶绕行或者提前变道,但可行性方面,可能需要地图APP、道路数据之间的打通,背后是庞大的智能交通生态。

写在最后:

目前来看,特斯拉FSD Beta V12利用端到端技术展示出的效果确实令人眼前一亮,不过从直播中能够看到,测试道路的环境并不算特别复杂,还有更多挑战等待着特斯拉,但直播中提到的FSD面对停止标不停止的情况结合端到端的技术,确实也引起了人们担忧,虽然违法的驾驶行为可以通过训练解决,但不违法但令人讨厌的情况,就成为这个技术背后的一个伦理问题,希望后续能够通过更多的智能交通协调解决这一问题,让自动驾驶更符合人们的预期。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OIx2VbzvRI6p6IcIo0P8eXkA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券