小米汽车事故前1秒退出智驾?网友喊话:技术缺陷还是难以避免?

律动解析呢 2025-04-01 18:48:52

3月29日晚,小米汽车SU7在德上高速公路池祁段发生严重碰撞事故,造成三人死亡。事故发生时,车辆以116km/h的时速行驶,在检测到施工路段障碍物后1秒钟退出智驾,2秒钟后以约97km/h的速度撞上隔离带水泥桩。这起事故也引发了不少网友的质疑,事故前1秒退出智驾,到底是技术缺陷还是难以避免?

智驾系统的"极限操作"

小米SU7标准版在德上高速的这起事故,暴露了当前智能驾驶技术中一个令人不安的行业潜规则:"危险前一秒退出智驾,用户能否避免?"

根据小米公布数据,车辆在碰撞前1秒(22:44:24-25)才从NOA状态切换为人工驾驶,此时系统已检测到障碍物并开始减速,但人驾接手1秒后就发生碰撞,留给驾驶员的反应时间不足0.5秒(数据可见方向盘和制动踏板在1秒内的剧烈变化)。这种设计任何一个人驾驶员都无法避免事故的发生。

车企宣传智能驾驶时强调"降低疲劳""提升安全",但事故时间线却显示:

NOA激活9分钟后即出现分心报警(22:36:48),说明系统默许驾驶员依赖辅助功能;

风险提示与接管几乎同时发生(22:44:24-25),相当于在飞机坠毁前1秒把操纵杆塞给乘客;

97km/h时速下的避障任务对人类而言几乎是不可能完成的任务(研究显示人类从认知到制动平均需要1.5秒)。

行业通病还是技术缺陷?

类似案例并非孤例:

特斯拉Autopilot事故中多次出现"碰撞前1秒解除AP"的EDR数据;

某新势力车型在施工路段误识别锥桶导致追尾,系统同样在最后关头退出。

其背后是行业共同的技术软肋:

施工路段识别能力低下:现有视觉+雷达方案对临时路障、改道标志的误判率超30%;

人机权责划分模糊:SAE L2级辅助驾驶的"人机共驾"本质是责任真空地带;

过度依赖驾驶员监控:分心报警≠有效避险,就像提醒"油箱漏了"不等于能灭火。

网友热议

网友1:没那么复杂,其实就是识别障碍太晚了。

网友2:22点44分24秒发现障碍,25秒进入人驾模式。26-28秒撞车,时速116km/h,舒马赫来了也控制不住吧。

网友3:客观得说,就是 3月29日 22:44:24 NOA发出风险提示“请注意前方有障碍”,发出减速请求,并开始减速,这个发出的预警太晚了。

网友4:冒昧问一下、如果是油车同样时速、会怎么样?

写在最后

当车企将"用户最终控制"写入说明书时,是否想过:

为何不在识别施工路段500米外就强制降速?

为何不开发道路施工数据库的在线更新?

为何紧急避障算法不能覆盖逆向车道场景?

智能驾驶的价值不应体现在"出事时甩锅有多快",而在于主动避免进入危险场景。否则,这种"智驾"不过是把驾驶员从"全程掌控"变成了"替系统背锅"的傀儡。

对此,大家怎么看?

0 阅读:0

律动解析呢

简介:感谢大家的关注