3月29日晚间,一辆小米SU7以116公里/小时的速度在高速路上行驶,路遇道路施工,车辆需要改道行驶,但因变道不及时最终以97公里/小时的速度与水泥护栏发生碰撞,车辆随后发生火灾,驾驶员和另外两名乘客不幸遇难。
碰撞发生前数秒,车辆处于NOA(辅助导航驾驶)状态。直到事故发生前两秒,NOA发出风险提示“请注意前方有障碍”,发出减速请求,并开始减速。下一秒,驾驶员接管,随后碰撞发生。这随即引发公众有关现阶段辅助驾驶系统感知能力、接管机制等一系列问题的追问。
安徽铜陵小米SU7事故现场、事故后的车辆残骸。(视频截图)
系统报警到碰撞的4秒里,驾驶员仅有1.5秒有效操作时间。在97公里时速下完成“识别—判断—转向—制动”的操作链,这要求人类在0.8秒内做出两次精准转向。更值得反思的是,涉事车辆此前17分钟持续发出“轻度分心报警”。这种温水煮青蛙式的安全暗示,让驾驶员在潜意识里形成“系统可靠”的依赖。
新能源汽车的竞争本应是安全底线之上的科技创新,但如今尴尬的是,“既要相信系统,又要随时接管”,成为当前智驾发展中的最大悖论。
自动驾驶虽然尚未到来,但是人们已经越来越多依赖趋近于自动驾驶的辅助驾驶功能,这些功能被车企以L2+级辅助驾驶的名义下放。在L2+级辅助驾驶仍有局限的情况下,人们却已经习惯于依赖系统,由此引发一系列事故。
“人们开始把驾驶座当沙发,这是比算法漏洞更危险的认知陷阱。”中国消费者协会投诉部主任王芳指出。
因此有必要重估当前智能驾驶系统的边界,并在这一过程中厘清驾驶员、车企和监管者的责任。对行业来说,每次对安全问题的避重就轻,可能都会透支整个行业的未来。而对驾驶员而言,必须充分认识到智能驾驶技术的局限性,不能将生命完全交给算法。
纯视觉路线的争议
小米SU7车祸引发的第一个争议便是纯视觉路线是否可靠。
事故车型为小米SU7标准版,该版本NOA采用纯视觉路线,没有安装激光雷达。而更高端的Pro版、Max版和Ultra版则采用“视觉+激光雷达”的路线。
特斯拉一直被视为“纯视觉”路线的代表,2024年以来,国内车企也开始更为积极地尝试纯视觉路线,如小鹏甚至被认为全面转向纯视觉路线。
2024年4月3日,中国28座城市的小米汽车交付中心同步开启首批小米SU7汽车交付。摄影/本刊记者 殷立勤
智能驾驶可以被分为感知、决策和执行三部分。在感知环节,主流做法曾是使用激光雷达、摄像头等多种传感器,以减轻车辆感知环节压力。特斯拉则放弃激光雷达,只使用摄像头采集的视觉数据。这是一个马斯克用第一性原理思考的案例,既然人开车时只采集视觉信息,机器开车时也应如此。
对于纯视觉路线究竟是否存在短板的问题,清华大学苏州汽车研究院智能网联中心技术总监孙辉告诉《中国新闻周刊》,纯视觉路线的短板主要在于三个方面:深度感知局限,高动态场景(反光、逆光)适应性弱,以及夜晚、雨雾场景性能衰减明显。“在算力允许的情况下,从获取信息完备的角度看,‘视觉+激光雷达’一定优于纯视觉。两种方案的差距主要体现在对不规则、稀有障碍物的判断上,纯视觉主要依赖模型的泛化能力,因此存在一定的漏检风险,尤其是在光线不足或过曝时,更可能失去感知能力。”
不过,相比于纯视觉路线是否可靠的疑问,一个更重要的问题可能是具体的纯视觉路线是否可靠。有业内人士告诉《中国新闻周刊》:“不能简单对比两条路线的优劣。作为‘纯视觉’路线代表,特斯拉FSD能力就比较强。”
但是国内相关车企在硬件与模型训练层面相比特斯拉均有差距。
比如对于“纯视觉”路线的一个质疑在于其夜间表现。“目前多数特斯拉仍在使用3.0版本硬件,配备8个200万像素摄像头,144 TOPS算力,这一版本硬件的摄像头夜间成像可能存在问题。但是新款Model Y使用4.0版本硬件,配备8个500万像素索尼摄像头,720 TOPS算力。索尼摄像头在光照强度仅有1勒克斯左右,也就是没有月光的夜间也能清晰成像,而在光照强度为8万—10万勒克斯的夏天正午,也不会过度曝光,所以这款摄像头对照度的适应范围远超人眼。”有长期关注智能驾驶领域的学者告诉《中国新闻周刊》,“相比之下,国内相关车企可能配备数量更多的摄像头,基本包括前后两只800万像素摄像头,但是摄像头对照度的适应范围可能不及特斯拉使用的索尼摄像头,可能导致夜间成像质量存疑。”
而在前述业内人士看来,国内车企在车载摄像头、芯片等硬件方面的配置尚可,但是训练算力与数据的缺失才是关键。
在孙辉看来,纯视觉路线主要从硬件与软件两方面提升表现,软件方面的提升主要依赖数据,大模型训练需要海量数据,尤其是Corner case(边缘场景)数据,这些数据的数量和质量决定了智驾系统的表现。
前述学者进一步解释称,国内车企训练算力普遍不足,而且一些车企用户数据闭环刚刚建成,甚至还没有建成,而仅仅依靠数据采集能采集的数据量有限。特斯拉V12版本FSD使用1000万段,每段1分钟时长的用户数据。如果1分钟对应的行驶距离是1公里,这意味其使用1000万公里用户驾驶数据,如此数据量难以通过数据采集的方式完成,从采集到标注的成本为七八十亿元,因此没有车企能够依靠数据采集的方式积累足够的数据。
有国内第三方智驾方案供应商告诉记者,在数据方面,特斯拉相比国内厂商确实具备很大优势,因其具有先发优势。据他预估,如果一家车企累计销量超过百万辆,便会具备“相对可以”的模型训练数据基础。
2023年7月,世界人工智能大会期间,智能驾驶、机器人、大模型、芯片等领域的科技成果吸引人们参观体验。图/IC
“由于算力与数据的不足,国内车企‘纯视觉’路线相比特斯拉FSD普遍存在差距,但值得注意的是,‘激光雷达+视觉’路线的功能性、安全性都优于纯视觉路线。”前述业内人士直言,国内车企没有激光雷达的辅助驾驶系统“差很多”。
在他看来,国内车企从去年开始密集发布“纯视觉”路线,更多还是出于降本考虑。“目前激光雷达的价格还在3000元—7000元之间,从车企采购零部件成本的角度来看,每增加1000元都十分艰难。尽管有激光雷达厂商声称售价已在千元以下,但是前提是一次性大量采购。”他认为,今年被视为智驾平权元年,这意味着智能驾驶成为“标配”,因此车企首先在较低价位车型放弃激光雷达。
智驾局限何在?
哪怕是同一款车型,不同配置的辅助驾驶系统也不尽相同,但是车企在介绍一款车型的辅助驾驶能力时,往往仅介绍其高配版本拥有的能力,而一些低配版本甚至可能不搭载辅助驾驶系统。
车企的宣传话术确实容易让消费者丧失警惕。但是另一方面,哪怕是一款车具备辅助驾驶功能,人们也往往容易忽视其局限性。比如小米SU7三款车型中,相比于Pro版、Max版,虽然标准版不配备激光雷达,车载算力更低,但是同样具备高速NOA功能。
人们已经习惯于在高速场景使用辅助驾驶功能,但是近年数次高速车祸引发人们对于辅助驾驶的讨论。
“高速NOA与城市NOA实现的难度可谓天壤之别。但是从风险角度来讲,人类驾驶员在熟悉城市场景后,再到高速场景驾驶,但是辅助驾驶功能却优先在高速场景推出。企业潜意识认为高速NOA容易达成,不过是将车道保持、定速巡航等功能组合。”前述业内人士表示。
即使是在当前较为成熟的高速场景,辅助驾驶依然有明显短板。孙辉表示,在高速NOA中,比较常见的短板有施工、事故等突发场景应对不佳、异形车识别效果不理想、紧急避险策略较保守,也就是倾向于刹车,易导致被追尾事故。
其中,施工场景确实是高速NOA的重要局限,近年很多引发外界对于辅助驾驶讨论的事故都发生在高速公路维修路段。
“车企还没有认真对待道路维修工况,比如AEB对于锥桶、水马等无法正常响应,根源在于对于这样的场景训练不足。高速公路维修路段是一个典型的Corner case(边缘场景),车企没有针对这种场景采集到足够多的数据,甚至没有对这些数据进行处理。”前述学者认为。
他表示,首先,高速公路维修路段到来前,会在沿途LED显示屏上提示,但是恐怕没有辅助驾驶系统会识别提示文字。其次,在维修路段,会设置道路指引标识牌,系统能否识别这样的标识牌也存在疑问。再次,维修道路往往会安排渐进式限速,比如此次发生事故的维修路段,限速40公里/小时。但是这些限速标识牌往往并不规范,驾驶员看到限速从120公里/小时逐渐下降到80公里/小时、60公里/小时、40公里/小时的时候能准确理解,但是辅助驾驶系统可能难以连贯地理解这些渐近式限速标识牌。“目前智驾系统在使用Transformer模型时,尽管算法已经改进,但由于车载算力有限,一般也只会关联前后4帧,约40毫秒的信息,这意味系统的‘记忆’有限,而由于系统默认在高速公路行驶,并不会识别这些限速标识。因此与其盯住事故发生前的最后三秒,不如多去问问,为什么此前车辆并未减速。”
正是因为像高速公路施工这样的边缘场景仍然存在,真正的自动驾驶才难以到来。汽车自动驾驶技术被划分为L0至L5六个级别,L3级是分界线,L3级及以上为自动驾驶。尽管国内车企不断推出L2+、L2.9等概念,但是仍然称不上自动驾驶。
“不要说还剩下1%的边缘场景,哪怕只剩下0.01%的边缘场景,依然不能离开驾驶员。”前述业内人士感慨,没有人能回答还剩下多少待解决的边缘场景。
真正实现自动驾驶就需要解决边缘场景的问题,不过这并非易事。对于驾驶而言,人工智能与人类容易犯的错误不同。人类最容易犯的错误是疲劳驾驶、分心驾驶,系统既不会疲劳,也不会分心,而是取决于训练。但是由于车载算力的限制,大模型、推理模型目前还难以应用于车端,车端更多应用深度学习模型,其不具备大模型、推理模型的泛化、推理能力,因此更容易在边缘场景出现问题,也就是所谓的“黑天鹅问题”,如果在天鹅这一标签下录入1万张白天鹅照片,深度学习模型不会将一只黑天鹅照片识别为天鹅,从而出现误判。
特斯拉最初希望通过“大力出奇迹”的方式解决这一问题,特斯拉FSD V12版本已经覆盖30亿公里的行驶里程数据,V13版本的下一个目标是覆盖约100亿公里的行驶里程数据,但是这显然没有穷尽所有驾驶场景。
前述学者告诉记者,目前,像理想等车企也在尝试将视觉语言模型与现有的深度学习模型相结合,赋予系统一定推理能力,从而解决“黑天鹅问题”,但这仍取决于车端算力的突破。深度学习模型的参数级别约为10亿级,而所谓大模型的参数级别至少在百亿级。今年车载算力应该会突破1000 TOPS,接近1500 TOPS,也就是使用两颗英伟达Thor芯片,而明年可能会突破2000 TOPS,这意味着比较好的推理模型可以“上车”。“随着车载算力的提升,以及智能驾驶模型的进步,边缘场景的问题有可能被更好地解决。”
在边缘场景问题解决前,智驾的局限便始终存在。
把驾驶员“喊回来”不丢人
尽管智能驾驶在现阶段仍然停留在辅助驾驶阶段,尚未真正实现自动驾驶,但是随着车企不断将L3级的能力下放到L2+级,其仍然要求驾驶员注意力保持集中与为驾驶员提供足够便利之间的悖论已经出现。
在启动辅助驾驶功能的情况下,驾驶员注意力往往难以集中,从而带来事故隐患。
2024年4月,美国国家公路交通安全管理局(NHTSA)针对特斯拉的Autopilot系统发布了一份调查报告。他们分析了2018年1月至2023年8月期间发生的956起车祸——这些事故在发生时或发生前,都启用了Autopilot。其中,有135起车祸可以通过车辆数据日志和EDR(事件数据记录器)确定驾驶员在碰撞前的反应。在82%的事故中,驾驶员没有刹车或在碰撞前不到1秒才刹车;在78%的事故中,驾驶员没有转向或在碰撞前不到1秒才转向。这足以表明驾驶员们有多信任辅助驾驶系统。
中国消费者协会投诉部主任王芳也指出,近期73%的自动驾驶相关投诉涉及“过度信任系统导致的分心驾驶”。
2024年10月28日,河南郑州市,人们参观比亚迪首个新能源汽车科普空间——郑州迪空间并体验智能驾驶。图/视觉中国
尽管车企也在使用技术手段保证驾驶员注意力足够集中,但这一方面被认为有悖于人性,另一方面,车企为展现更好的辅助驾驶能力,也在追求所谓的“零接管”。
孙辉告诉记者,从技术层面来说,DMS(驾驶员监测系统)可以很好地对驾驶员状态进行实时监测,获得微表情信息,如疲劳、注意力分散等,但由于车内隐私保护等考虑存在接受意愿不高的现象。提高驾驶员使用辅助驾驶系统门槛可能会被理解成车企技术不自信,同时削弱了客户权限,容易导致负面的市场反应,非法规情况下预期车企不会优先采用。
在L2+级辅助驾驶的语境下,辅助驾驶系统究竟应该在何时、何地交给驾驶员接管,目前并无明确监管要求。
“对于L2+级辅助驾驶而言,目前最重要的是把人‘喊回来’,也就是接管,在驾驶员仍要负责的情况下,没有必要要求系统解决一切问题。比如:如果系统在高速公路上识别到维修路段的一个特征,是不是就可以直接把驾驶员‘喊回来’?如果监管不在这方面提出明确要求,车企便会倾向于无限‘秀技’。因为车企往往在潜意识中认为,辅助驾驶系统把驾驶员‘喊回来’比较‘丢人’,一旦辅助驾驶系统频繁退出,还会被认为接管率(MPI)过高,从而被认为辅助驾驶系统性能较差。因此车企为了降低接管率,辅助驾驶系统往往有‘不行也行’的倾向,最为典型的可能就是特斯拉,FSD就是不愿意退出。”前述业内人士直言。
他表示:“如果辅助驾驶系统在某些场景没有经过充分测试,在遇到这些场景时就该果断退出,甚至在相关场景根本不应该下发辅助驾驶功能。在这一点上华为做得比较好,比如其在去年也一直没有下发环岛、掉头等工况的NOA功能。对于汽车产业而言,一起恶性事故足以摧毁一个品牌,因此车企首先要建立起把驾驶员‘喊回来’并不‘丢人’的意识。”
此次小米SU7事故发生后,驾驶员在接管后两秒便发生碰撞,由此引发接管时间的讨论,但是对于L2+级辅助驾驶而言,目前这一标准并不存在。
汽车安全领域常用TTC(碰撞时间,计算车辆与前方障碍物发生碰撞所需的时间)来评估合理的接管时机。系统发出接管预警时,TTC越长,就意味着驾驶员有更充足的反应时间。
同济大学汽车学院教授朱西产的团队通过模拟器测试发现,从系统提示到事故发生的平均时间仅1.7秒,而人类驾驶员平均需要2.3秒才能完成从识别提示到有效接管的操作。而当系统处于3级自动驾驶状态时,驾驶员注意力分散率高达82%。
现在有针对L3级自动驾驶的TTC国际标准,要求智驾系统从发出预警到驾驶员成功接管应有10秒的TTC时间,但对于L2+辅助驾驶没有强制性要求。
“目前车辆硬件就难以满足L3级的TTC时间要求,如果车辆以120公里/小时的速度行驶,10秒对应距离超过300米,目前鲜有车辆搭载的激光雷达探测距离能达到300米。”前述业内人士坦言,TTC能做到5秒便已经不错,这也应该成为监管的硬性要求。
孙辉也建议,没有完美的接管算法,目前的问题在于应对系统失效时“最小风险策略”的缺失,目前L2+仅做报警提示,然后便退出。可参考高阶自动驾驶中“最小风险策略”的做法,完善应急处理机制。当遇到无法处理的复杂情况或系统出现严重故障时,能够迅速采取降级运行模式,如将车辆安全地引导至路边停车,或在确保安全的前提下,以较低的速度行驶到安全位置。
前述业内人士表示,目前辅助驾驶系统的接管往往是“无提醒接管”,而每一次“无提醒接管”都会导致安全隐患,因为“无提醒接管”建立在驾驶员注意力时刻集中的假设之上,但是这种假设难以成立,因此首先应该建立起预留充足时间的情况下有提醒接管的规范。
而监管之所以是空白,在很大程度上也是因为当前不同车企、不同车型L2+级辅助驾驶能力边界并不清晰。即使是实现难度较低的高速NOA,不同车型的性能表现差异仍然较大。在今年这一智驾平权元年,奇瑞小蚂蚁搭载的猎鹰智驾系统也宣称具备高速NOA功能,而其售价已经低至5万元。
“近期,我们也在参与中国汽车工业研究院的智驾长测,将售价从5万元到30万元以上的不同车型划分为六档,所选车型均宣称具备高速NOA功能,通过打分测试其性能差异。”前述学者表示,希望借此逐渐打破NOA缺少国家标准,车企“宣称”具备NOA功能就具备NOA功能的情况。测试是制定下一步监管规则的基础,一些低价位车型如果在辅助驾驶系统性能上表现较差,就理应通过更多、更合理的接管来保障安全。
作者:陈惟杉 王诗涵编辑:闵杰
宣传智驾,是电动汽车的一大卖点,只说其如何好,让人特别是年轻人信赖依赖,三女大学生因此付出生命的代价,
小米本来就垃圾中的垃圾
开车就得聚精会神,别拿自己的命开玩笑,不然那么严格考个驾照干嘛?
智驾技术不完全成熟,希望厂家不要过度宣传自动驾驶,否则,会带来血的教训!
这是单方交通事故,自己全责!
事故的根本原因,应该是辅助驾驶没有及时识别到水马和高速公路改道
没有激光雷达就是害人
智能驾驶吹过了,把人忽悠瘸了。
油车分神撞了自己的锅,电车分神撞了,雷军杀人犯[点赞]
小白鼠不分性别![得瑟][得瑟][得瑟]
三位女生为小米的营销套路买单
以外来猪肉为核心的电车,搞不定核心问题,就以消除负面为主,拿命为境外实验、训练AI。国内自主创新,自有芯核心技术呀,能防止美犹后门暗门,升级、改进、解决问题、创新更代皆有良性循环。
当然是自己错,你不开这车会死吗?
我的错,没有好好保佑你平安
什么时候可以不考驾照就可以开车,才能叫自动驾驶
无论是辅助驾使,还是自动驾使,或者是以后什么驾使,都应把人的生命放在第一位。脱离这一原则,都是扯蛋。一切车辆都是马路杀手!
车企的宣传话术,应该严格监管严格追责,尤其是余大嘴之类的,搞个销售简直就像是搞传销搞邪教一样,必须追责
一个整合商,造了一款缝合怪,卖给一群傻逼。
在当前的贸易环境下,智驾算力芯片肯定会受限,服务器端算力芯片也会受限。这不是利好华为吗,就他的影响小。后面不会他一家独大了吧。高端手机市场会不会也这样?
他们父母的错。资本家到小白鼠。
我们现在需要搞清楚智能驾驶与无人驾驶,不管现在的智能驾驶达到了什么状态,驾驶唯一的责任人还是人是驾驶员自己,就目前的道路交通安全法来说,双手离开方向盘是危险驾驶,交通安全执法对打手机,吃东西都会处罚,对疲劳驾驶更是严格,那么,在所谓智能驾驶状态的司机,双手离开方向盘,刷视频,聊天,甚至打瞌睡的应该不少,按目前交通安全法来说是一个非常严重的违法行为,现在也有了不少血淋淋的教训,需要针对此类违法行为,尤其是高速公路上的违法给予严格执法。
电车惹的祸,没那技术,就吹牛逼。害了多少人?
造车不是键盘上敲代码 雷军现在知道为什么苹果10年造不出电动车了吧 无知者无畏啊
哗众取宠的标题,隔靴搔痒的内容,搔首弄姿的隐喻,中国新闻周刊的错。
目前最高级的智能驾驶是战斗机,都无法应对复杂的欠情况,必须要高级的驾驶员驾驶,就更别说民用级别了。估计再过1百年可能才行。
多大势力还敢发这事的帖子呢?[笑着哭]
保险与车企无须付任何责任,事主为为自己无知付全责
所谓什么智能驾驶,这就是一个车企的一个圈套,扩大其宣传力度,明明就不成熟的一个系统,非要说是智能驾驶误导消费者,好了,白白把三个女大学生年轻的生命做了小白鼠。小米车企,你要好好反思。不能把人作为试验品,你这跟日本的731有什么区别?
所谓的“人工智能之说”过于强调正面和未来,犹如未来、未知及不测,正同咱们双向加速奔赴。负效力尤为突出~体现在人员密集型、勘探集采上、交通港航上、网络信息上、金融服务上和冲突与战争上…… 结语,我是很无语的。
车祸原因其实主要还是人工接管后方向打错的问题,如果限制人工接管车速不高于60应该好一些,但这又会导致高速上车速太低。另外,人工接管后,智驾控制权是不是应该还是优于人工,避免人工出错,当然这种情况下相当于人工接管失效,有可能造成更大数量的车祸。
车主和当事人的错[呲牙笑][呲牙笑][呲牙笑][呲牙笑]
开车的不知道开车,还造成了事故,你说谁的责任?这说的没毛病吧?
什么狗屁谁的错,少一些先入为主,少一些炒作,走正常交通事故流程,谁的责任,自有定论。
合适的人用上了合适的工具在合适的环境下,就有了合适的结果;好事如此,坏事也是如此。
没事继续嘚瑟智能什么无人驾驶,无人网约车,反正以后人类也将被智能替代。
谁的错?司机的错
当年广州虎门大桥那辆宝马730的那种翻滚,里面的人员居然安然无恙!好车那就是好车!
谁的错[得瑟]错的人已经失去了生命了 活着的人总得过好自己的生活吧 你懂的
现阶段宣传的智驾全称叫智能辅助驾驶,被某位牛逼哄哄的缩减叫成智驾,然后一群所谓的爱国➕网红跟着一窝蜂的曾流量导致现在的结果,这里面没有一个是无辜的,尤其是余承东,这玩意死了会下拔舌地狱的[doge][doge][doge]
其实不用警告,直接给他降速就可以,国家只要限制这是很简单的事,只要速度一降反应就能来,要么就是让司机专心开车
这就有个问题了。你有没有对辅驾,等辅助设施另外收费,收费了肯定有责任
太依赖智能化了
不是某个车企的错,而是整个社会舆论氛围让很多人以为智驾已经取代了智商。
沥青全责
是辅助驾驶不是无人驾到!
把命交给机器,机器只能说,是你自己放弃的[笑着哭]
嗯,全世界只有小米出事故,其他的新能源车都没出过
三年就造车,还做智驾,急功近利。米粉苦了
不把自己的命当回事,100多码在路上开,自己不警醒,真把小命交给智驾啊[笑着哭]
很有考仁系小扁滴错![好生气]
新能源电车以后注定会淘汰的,技术还不行。
时间[晕]
过度依赖智驾,驾驶员丧失警惕是事故发生的主要原因,不成熟的智驾系统应不能安装。
都是厂家和卖家宣传出来的结果,希望大家引以为戒,不要重蹈覆辙。
用普通人的生命去验证这个系统的可靠性,那是对自己的不负责。
所谓的智能只适合辅助
车门的错,一出事故四扇车门没有一个可以打开
司机的错,有疑问吗?
小米的问题,因为这三个女的没有开车,是小米开的,最后关头抓住方向盘也是为了紧急避险,事实上这三个女的是被小米撞死的
出了车祸,人是车祸死的?还是出车祸受伤了被活活烧死的?如果是受伤被烧死,车企难道不是第一责任人?
除非是部队,可以把后背交给战友,其他的环境,谁也不可信[得瑟]
首先是人祸,自己没有安全意识!智能驾驶过度宣传!
呵呵都知道粗粮的营销没有下限,可它没有违反广告法。粗粮的车也符合国标。一个成年人把自己玩死了顺带上2个同学。不看自己有没有问题,拿着放大镜去别人身上找问题是什么玩意[doge][doge][doge][doge]
只相信自己
开车出事故不就是驾驶员的错,又没有第三方责任
冥冥之中自有定数
当然是小米的错。不贪那风口造车,就不会这些事。
把自己生命交给智驾系统,太无语了
人活多久都是命中注定的
肯定要怪她男友不够关心她
先说好我不是米粉,小米的东西我也没用过。这只能怪小米倒霉,碰到这几个不拿命当回事的人。换另一个牌子的车一样也要出这种问题。
游戏输了,不多说了!我去南山找麻花腾算账去
你说是老天的错我都没意见,但是人死能复生吗?敢将自己都生命完全交给一个机器,我只能表示佩服呀
双手不抓方向盘,玩手机,交警会因为智驾免于处罚吗?[并不简单]
什么都没说!怪华为咯
现在大学生太有钱了
广播剧《刑警803》杀人骗保案和《速度与激情》远程遥控了解一下[抠鼻]小米成了杀人工具了吗[并不简单]
自身的错,老天要让谁灭亡,必先使其疯狂…
谁都没错,就是买错车,所以人走了![吃瓜]
十几天了还是这些垃圾文章。怎么不写扫大街的阿姨
自己的错,信错了学渣,本来就是垃圾品控,怎么可能会把安全放上心。
我只羡慕他的车居然有三个妹子,再看看我的车都没人哭
车是人驾驶的 怎么能相信电脑程序呢 傻子吗
技术变革是个坑,需要无数人填平这个坑,让后来的人能够平稳走过
起火的问题问吗不提
自己开车不行就别怪车
你真搞笑。节奏带的也太明显了,提前17分钟报警,还特么温水煮青蛙。你咋这么不要脸呢
男车主借给女朋友出了车祸,还得赔两名乘客
别有事总扯智驾,智驾不是无人驾驶,只是辅助驾驶系统。司机本人和路障设置负主要责任。
特斯拉都不能%100安全,更何况小米
理论上讲她们不改有驾照,女司机迷方向。
一个肇事者,两个受害者,还有一群~~
自个的错。
应该是被男友的吹牛给误导了,以为这个辅助系统真的可以完全自动驾驶
当然是开车的错。
事实就在那里啊,明显NOA有问题,这还有什么好说的呢?马上就要撞上去了,结果它直接退出,谁能反应过来?
除非能从法律上认定车辆存在技术缺陷,否则就是自负!
这就是所为的瑶瑶领先,是的,消费者花钱 买了一辆移动火化车。悲哀啊!