首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >百度无人车测试与信任危机

百度无人车测试与信任危机

作者头像
王树义
发布2018-08-22 16:00:31
3031
发布2018-08-22 16:00:31
举报
文章被收录于专栏:玉树芝兰玉树芝兰

信任很难得,因此有的时候价格会非常昂贵,甚至是健康与生命。

争议

乌镇互联网大会上,百度又一次成为了媒体的报道焦点。起因是李彦宏先生非常轻松幽默地说了下面一番话:

我昨天去试乘无人车的时候也比较特殊,因为当时在下雨。一年前我们也在乌镇展示过我们的无人车,当时是静态的,但是今天已经可以在公开的道路上跑起来了,道路上可以有自行车、电动自行车、行人、还有逆行等等各种各样的情况。昨天他们为了给我一点挑战,说要人为安排几个人,突然从路边冲到马路当中去拦一下我乘坐的这辆无人驾驶汽车,但毕竟以前没有做过这样的事情,觉得还是有一点疯狂。后来商量半天我们是这样做的,请那些写无人车代码的工程师亲自去拦这辆车,不过还是安全、毫无问题地顺利通过了这个实验。

不知李老板讲话的时候有没有考虑到后果。反正码农们是立即炸了。

我只浏览了知乎上面相关的问题和答案。因为这里的讨论还算理智一些。但是答来答去,似乎问题争论的焦点很快就从“让真人去试验无人车的安全性是否人道”,转变成了“究竟应该是李老板去,还是该码农去”。

人道

我们先说说人道的问题。

有些行业,产品测试就是比其他行业更具危险性。

例如生产防弹衣的企业。你说让一个真人穿了防弹衣,对面一个粗壮大汉近距离射击,人道吗?

听说美国空军曾经要求降落伞生产商必须亲自测试自己产品的安全性。跳伞的安全性不仅受到降落伞本身影响,也会受到环境、天气等其他因素作用。跳下去不排除会有生命危险,人道吗?

对面子弹横飞,你不觉得残酷;

万米高空一跃,你不觉得残酷;

走在街上,面对一辆早已通过无数遍(非真人)测试的人工智能驾驶汽车,你反倒觉得残酷了?

这样的一辆汽车,如果没有真人测试,将来直接投入使用,对乘坐者和行人来说人道吗?

那才叫真的残酷。

信任

当你把自己假想成无人车前的无辜行人时,你恐怕恨不得把百度的所有人都推到你前面帮你先测试一下。

这不是自私,这是理性。你的理性促使你找到信任这种高科技产品的理由。只有其他人真正尝试过而且没有危险时,你才会信任它。

那些穿着防弹衣或者躲在防弹玻璃后面等着扫射的人,所做所为的动机也不是舍己为人的牺牲精神,同样也是理性。他们的冒险举动,就是为了换来他人的信任。

在一个协作体系中,信任不是平白无故建立起来的。

许多年来,董事长巴菲特把自己几乎全部的身家都投入到了伯克希尔哈撒韦公司的股票中。那可是好几百亿美元啊。因此作为一个小股东,你可以放心大胆地买下伯克希尔哈撒韦股票,把钱交给巴菲特来管理。反正如果公司出现了问题,巴菲特需要承担更大的损失。

一个餐馆里面工作的人根本不肯吃自己做出来的食物,你愿意进去就餐吗?

一个农户严格区分“卖给别人的菜”和“自己家人吃的菜”,你敢从他手里买东西吗?

一个学校根本不愿意让本校的毕业生留校工作,你觉得它的教育质量有保证吗?

当我们去判断能否信任某个人或者某个机构的时候,总要去寻找这样的信号。

信任很难得,因此有的时候价格会非常昂贵,甚至是健康与生命。

例如某著名净化设备生产商要求空气净化器测试的时候,工程师必须进入测试环境抽烟。 :-P

危机

产品越简单,信任的成本越低。例如防弹衣的生产商知道自己公司产品的设计、用料和做工,心里就有底,所以敢于自己尝试枪击效果。

无人驾驶汽车的安全性呢?这个系统太复杂、太精密了。中间涉及了大量人员、团队甚至是企业之间的协作。只要有一环出了问题,后果就不堪设想。

每个需要站在车前测试的人,恐怕都会想起特斯拉的那几起车祸来。

李老板自己对这款车质量的信任程度,显然没有达到100%,因此放弃了大好的宣传展示机会。他可以坐在车上,却绝不会乱跑到车前尝试。

李老板万金之躯,岂可立于危墙之下?这我们好理解。庚子拳乱,下战书跟所有邦交国宣战的是慈禧老佛爷,可是上阵挥舞刀片向着洋枪洋炮冲锋的没有一个是皇亲贵胄,对吧?

可是李老板话里面无意中透露的“后来商量半天”,却才真正是值得大家关注的地方。

我没在百度工作过,不了解该公司具体的组织结构。但是我不相信这几个被大家同情的工程师会直接对李彦宏汇报。

他们中间,恐怕至少会隔着好几个层级吧?为何没有个高管或者中层干部出来临危受命,跟工程师一起玩儿一把刺激呢?

因为信任危机。

这种需要用身家性命做赌注的测试,没有信心是没法参与的。

“商量半天”却最终都没有上场的事实说明没有任何一级管理人员对于该产品的安全性有100%的信心。

信任原本是个链条,层层传递。而这种不信任就如同自由落体一样,谁也兜不住,一直坠落到最底层的员工身上。

有人问为啥不让搞硬件的上?因为无人驾驶领域的硬件产品(例如传感器等)都很成熟,车辆自身的硬件设施就更不用说了。安全问题的关键在于人工智能系统,也就是软件。特斯拉之前的那次致命车祸里面,传感器等硬件没有失灵,侦测到了那辆大卡车。只是人工智能将其误判为非危险物体,于是毫不减速地冲了上去。

谁负责最关键的人工智能部分?写代码的呗。

于是大家一起看码农。

代码是谁写的?你们对吧?

你不敢上?莫非你的代码有bug?

你保证你的代码绝对没问题?那你为何不敢上?

这时候,你会深刻明白那句古话。哪一句?自己琢磨吧。

这里的逻辑是——你们直接敲代码的人不敢上,想必是你们没有信心。你们没有信心,凭什么让我这个领导去冒险?你们敲代码的人上了……哦,人够多了……那我就不去凑热闹了。祝好运!

教训

一个事儿过去了,得吸取点儿东西。针对不同群体,咱们总结一些教训吧。

首先是软件工程师们。不要觉得不编脚本抢月饼就能平安过好这一生。一定要搞清楚你的最终产品是什么。有的产品本身并不危险,但是测试起来会冒很大风险。另外,别没事儿瞎思考什么“要不要从技术岗转管理岗”之类的话题了。答案不是明摆着吗?

其次是给爱讲故事的企业家们。有的事儿必须要做,但是没有必要大张旗鼓去说。一件事情并不是只要成功就一切都好。这次试车显然是完美成功,但是故事一讲出来,就暴露了企业很多本不愿意暴露的东西。不是吗?

第三是给我这种爱在朋友圈里面转发内容的人。转发之前一定要考虑环境和后果。我昨天转发了李彦宏的讲话,并且加了一句自己的注解——“我没有觉得这种做法有什么不妥”。我说的是心里话,可我忘了一个基本事实——自己朋友圈里面至少有150号人都是IT工程师。特别是有个好友给了我三个抠鼻的表情。我突然想起来,他就是搞人工智能的,而且就在百度。莫非……

下次注意。 :-P

讨论

关于这次百度无人车真人测试,你有什么要说的?欢迎留言,咱们一起讨论。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-11-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 玉树芝兰 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 争议
  • 人道
  • 信任
  • 危机
  • 教训
  • 讨论
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档