驾驶辅助≠自动驾驶,血淋淋教训却唤不醒装睡的人

新车新技术 2021-08-18 11:49:21

不久前,一台蔚来ES8在上海发生一起惨烈的交通事故,驾驶者不幸身亡。而后,又发生了“蔚来工作人员私自接触事故车被警方传唤”的事件,让人觉得蔚来更加的理亏,也让人产生了更多的遐想,似乎事情的原因就是驾驶辅助系统判断失误导致的。

关于真相,我并不想去猜测,既然警方介入,那么等官方通报便好。不过,自动驾驶或者驾驶辅助倒是应该严肃的来讨论一下。

我一直对于驾驶辅助功能持谨慎态度,而很多用户,尤其是新势力品牌购买者,他们在厂商宣传的诱导下,对于驾驶辅助极其信任和依赖,如此便导致了各种惨重的交通事故。已经有特斯拉的前车之鉴,但似乎人们并没有吸取教训,反而有些变本加厉,我相信以后类似的事故一定还会发生。

技术不成熟,谈自动驾驶为时尚早

从目前的技术看,无论硬件还是软件,我们离自动驾驶的距离很远。即便降低标准,现有的驾驶辅助功能同样存在不少的漏洞,依然要等待技术的成熟。从驾驶辅助发展到自动驾驶,大概分为两条技术路线:低精度探测和高精度探测。

低精度探测是我们最为熟悉的,因为现在能接触到的驾驶辅助系统,几乎都走的是这条技术路线。它的基础是:毫米波雷达、超声波雷达、摄像头以及背后的数据处理系统。问题在于,雷达和摄像头并不能做到100%的识别率。

就拿之前特斯拉出过的事故来说,在一些特定条件下,它的摄像头会把颜色接近蓝天的厢式货车误判成天空,从而导致事故。后来国内还有不少特斯拉“幽灵刹车”的事件,道理也一样,有可能是摄像头误判地面的阴影是障碍物。

此外,目前的摄像头和雷达对于地面状况的识别也很困难,比如地上有个大坑,或者有一些矮小的障碍物,基本也是束手无策。即使背后的软件一直在优化,但硬件的感知能力是有上限的。如若想实现更高阶的自动驾驶,只能期待图像处理有质的飞跃,不过短时间内怕是很难实现。

另一种高精度探测路线,它的区别在于多了一套激光雷达,这个设备大家可能比较陌生,确实它的应用范围很窄,只有在某些专业领域才会被用到。

不过,原来是比较简单的,发射一束激光,遇到物体它会反射回来,然后利用速度乘以时间,就可以计算出来距离了。当然仅仅一束激光是没有用的,但如果每次发射上百束光,同时每秒发射上百次,合算下来就是每秒上万次的扫描。而且是360度旋转扫描,那么就能还原出半径150米、从地面到空中20米,这样一个半球体内所有物体的细节。

并且精度非常的高,误差能控制在2厘米的范围内,甚至连前方卡车上掉落的石子都能够识别。这种精度和范围是毫米波雷达、超声波雷达难以企及的。目前走这条技术路线的主要以谷歌、百度为代表。

激光雷达非常好辨认,只要看到车顶有类似这样的物体,大概率都是激光雷达。另外由于要360度对周围物体进行扫描,所以雷达只会被布置在车顶上

但是激光雷达也有不足,一个是恶劣天气对其的干扰较大,不过可以用毫米波、超声波雷达作为辅助。另一个就是成本太高,全套设备需要上万美金,所以目前还没有量产车使用。那些号称使用激光雷达也只是点对点、点对面的使用,做不到360度旋转扫描。

之前参观百度的自动驾驶中心时,他们工程师告诉我,国内一整套激光雷达的价格大概要20多万。我们以蔚来ES8为例,顶配60万的售价,如果加装20万的激光雷达那么就会让车价上升30%,低配车型这个比例会接近50%。

即便我们不考虑硬件成本,现有的软件依然不能应付自动驾驶。交通是一个复杂系统,其中的变量太多,不可能为每一种情况都单独去写一条代码,这是无法完成的工作。这时就需要演化的思维去解决这件事,比较有名的是神经网络算法和遗传算法。前者被谷歌AlphaGo所使用,然后便称霸了围棋棋坛;后者是约翰·霍兰德发明的,也是人类最早对于复杂系统的研究方式。

面对一个无法逐条描述的复杂系统,这种算法非常有效。拿象棋来举例,只要告诉计算机象棋的规则,接下来就可以让他在成千上万局的对弈中,寻找最优的策略。而这种最优的策略一旦形成,我们很难用概括的方式去总结它。

只不过,运用在自动驾驶方面这两种算法都很难胜任。交通规则复杂程度远高于棋类项目,更糟的是还有很多意外状况以及规则之外的东西存在。我们现在的自动驾驶或者驾驶辅助的程序,只能应对一个相对简单的规则范围,假如碰到逆行或突然变道的状况,便无法应对了。

总之,自动驾驶依然是空中楼阁,即便驾驶辅助系统,依然需要我们保持专注度,准备随时接管车辆。

对自动驾驶的悲观,可不是臆想

对于驾驶辅助的不信任、对自动驾驶的悲观,也并非是纸面上的臆想。不同品牌、不同种类的驾驶辅助系统,我体验过许多,但它们离自动驾驶都很遥远,甚至从L2级往前迈半步都显得极为困难。

就以小鹏、特斯拉、蔚来为例,它们三家都推出了“自动领航辅助驾驶”功能,也就是说,设定好导航之后,车辆就可以在高速路段自动按照导航行驶。其中可以自动超车,以及自主上下匝道、变换高速。

可谓是在L2级驾驶辅助的基础上,又迈出了半步,咋一看以为自动驾驶马上就要来临。可是实际体验却不是那么一回事,小鹏的NGP、蔚来的NOP、特斯拉的NOA,他们的表现都差不多——危险,无法使用。

他们的漏洞同样可以从两方面说。一来是探测不准确:在主路上还好,可以按照车道线行驶,也可以精准的变到相邻的车道中,但是在匝道上就很有可能出错,尤其是复杂的匝道,比如匝道出去后又紧接着好几个匝道;再有,就是对于突然变道的车识别不清,比如在最右侧车道向中间车道并线时,刚好有车从最左侧车道向中间变道,这时候系统就很可能判断不清,如果不接手,一定会发生碰撞。

二来就是背后的软件逻辑问题:比较典型的是,变道犹豫、下匝道犹豫。举个例子,有时候离匝道口还有5、6公里,车辆就向右侧变道,然后一直跟着慢车行驶:有时候快到匝道口,但是右侧有车,驾驶辅助便会退出,而当你接管之后,也没有时间变道,只能绕路掉头了:再有“变道犹豫”,这非常危险了,假如变道过程中突然检测到后方有车驶来,此时系统就会让车骑在两根车道之间,不知道应该完成变道,还是应该放弃变道,十分可怕。

总之,这些个所谓高阶驾驶辅助的自动领航功能,都是些未完工的半成品。当开启之后,自己就像驾校的教练,而自动领航驾驶辅助就像一个不怎么聪明的学员,时不时做出一些让人冒冷汗的举动,不仅没有缓解驾驶疲劳,反而让人神经紧张、血压飙升。用,比不用,更累!

驾驶辅助使用乱象,厂商该背锅么

即便硬件识别能力有限,即便软件标定不完善,但是驾驶辅助功能依旧被各大厂商拿出来当做智能的象征。尤其是新势力企业,更加的肆无忌惮。为了扮演颠覆者的形象,驾驶辅助被赋予神圣的光环,而后大肆宣传其智能。讽刺的是,在使用说明书上却把自己憋得一干二净,一旦出事就把责任推到驾驶者身上,称其没有好好看说明书(我估计买车后看说明书的人比例不到1%)。

假如这次ES8的事故果真与驾驶辅助系统相关,我觉得蔚来难辞其咎。驾驶辅助,本应该是一个严肃的功能,因为它与驾驶安全息息相关,宣传层面也应该从安全角度入手,引导驾驶者安全驾驶。不幸的是,驾驶辅助反而成为泡沫最多、过度营销最严重的一项配置。

更糟的是,类似小鹏NGP、蔚来NOP、特斯拉NOA,这种不完备,且具有严重安全隐患的功能,本不该出现在量产车型上。但新势力们想到了OTA,在其包装下,这些功能竟然堂而皇之的被宣传为智能之先锋,还被一些媒体和用户大肆鼓吹。

现在OTA已是不成熟技术的遮羞布。虽然有些功能,目前实现不了或者表现不佳,可是先给人描绘一个极其漂亮的未来,说白了就是画大饼。这是一个很讨巧的营销手段,先增加人们的好奇心以及对美好未来的憧憬,再用OTA的话术将目前尚未成熟的技术搪塞过去,至于以后是否能实现,那又是另外一回事了。

对驾驶辅助的管理存在很大的问题,不能由着厂商胡来,该有些办法监管才对。我觉得,可以效仿FDA对药品的监管,以最苛刻、最严谨的眼光去省视每一个技术细节,存在安全隐患的功能应以“零容忍”态度处之。

虽然驾驶辅助使用乱象主要问题在于厂商的过度宣传,但驾驶者也应该对“安全”二字心存起码的敬畏。

时常感慨,我们的交通环境实在是魔幻。在网络上,人们对于安全问题非常重视,态度也极其苛刻。假如,一款车安全碰撞成绩不好,大家便开始口诛笔伐,给它扣上“草芥人命”的帽子。

但是,现实又是另外一幅景象,似乎没有人在意行车安全。就拿高速来说,限速120km/h,有开40的也有开200的,甚至还有停车、倒车、逆行的。至于胡乱变道的,时时刻刻都在发生。而驾驶辅助,尤其是前面提到的自动领航辅助驾驶出现后,妖魔鬼怪便都出来作秀了。

时不时能看到这样的视频,主驾插着安全带卡扣,方向盘上绑着重力环,然后驾驶者在后排,或是睡觉、或是打游戏,以此来炫耀驾驶辅助功能。每每看到类似视频,后背总是一阵阵发凉。他们不在意自己的生命也就罢了,对于他人的生命安全丝毫不顾,与这样的人使用同一条道路真叫人后怕。

这种人多是特斯拉、小鹏、蔚来等新势力品牌的忠实粉丝,对于品牌有一种近乎于宗教般的信任。即便说破了嘴,他们依然不认为信奉那个产品会出错。

还记得之前提到特斯拉撞到厢式货车的案例么,丧生的特斯拉车主叫做布朗,他是马斯克的铁粉,自然对自己的Model S深信不疑,隔三差五便会在社交媒体上炫耀爱车的自动驾驶功能。据报道说,车祸之后,货车司机下车后发现,特斯拉车内依然播放着电影,或许布朗先生至死也没发现危险的降临。

还是那句话:好良言难劝该死鬼,大慈悲不度自绝人——永远无法叫醒一个装睡的人。希望大家能对驾驶辅助、驾驶安全重视起来。说出来有些俗,但生命真的只有一次。

0 阅读:7

新车新技术

简介:专业、逼格 缺一不可