最近后台总有人问我一个问题:现在的智驾到底靠不靠谱?能不能放心用?
我先把话撂这儿——现阶段的智能驾驶,确实有用,但绝对不能当司机。
如果你把它当“副驾驶”,那是好东西;
但如果你把它当“司机”,那迟早会出事。
先给大家看一个很典型的画面。
汽车撞墙瞬间,强调自动驾驶的潜在风险。
类似这样的测试画面,在很多自动驾驶演示里都能看到。看着很科幻,但现实情况是——技术并没有大家想象得那么万能。
甚至有时候,只是一个再普通不过的左拐路口,智驾就可能直接“翻车”。
自动驾驶汽车撞上绿化带,凸显技术问题。
仅仅是一个左拐路口,就直接撞上了绿化带。
更关键的是,如果智驾在碰撞发生前一秒突然退出,完全不给驾驶员反应时间,你还敢放心使用么?
这就是今天必须聊清楚的问题。
01.
先搞清楚:现在的自动驾驶,其实只有L2
很多人一听“自动驾驶”,脑子里默认就是:
车自己开,人只管坐。
但现实完全不是这么回事。
根据国际自动机工程师学会(SAE)的分类,自动驾驶从
L0到L5一共6个等级。
L0到L5自动驾驶等级分类图表。
目前行业普遍的真实水平是:L2级。
什么意思?
简单说一句大白话:
车可以帮你开,但责任还是你的。
L2级的核心要求就是——
必须握住方向盘,随时准备接管。
所以现在不管是特斯拉、华为、小鹏、理想,本质上都还在这个阶段。
当然,有厂商已经在往更高等级走了。
比如华为。
华为发布L3级智驾技术。
华为接下来准备推出 高速L3级智驾。
L3的关键变化只有一个:
允许特定条件下“脱手脱眼”。
也就是说,在规定场景里,司机可以不盯着路。
更重要的是——
如果发生事故,责任由车企承担。
但问题来了:
由于政策原因,这套系统暂时还没有正式落地。
所以结论很简单:
今天所有你能买到的车,本质还是L2辅助驾驶。
02.
为什么大家还在拼命做自动驾驶?
很多人会问一句:
既然还不成熟,为什么整个行业都在疯狂投入?
答案其实很简单:
自动驾驶有可能比人类更安全。
先看一个数据。
研究表明:
93%的交通事故都是由人为因素导致。
比如:
而机器有一个天然优势:
它不会累,不会醉,也不会情绪化。
所以自动驾驶的逻辑很简单:
用理性,对抗人性弱点。
在高速这种规则清晰的场景,优势尤其明显。
自动驾驶汽车在高速公路上的行驶状态。
比如自动跟车、车道保持、限速控制,这些事情机器确实做得很稳定。
说实话,如果只看高速巡航场景,很多智驾系统我能给到8分以上。
03.
但有些场景,机器反而更容易出事
事情没有那么简单。
《Nature》上曾经有一篇研究,来自佛罗里达大学的两位学者。
他们对 2016—2022年间2200个自动驾驶车辆事故,以及
35133例人类驾驶事故进行了对比。
《Nature》文章截图,对比自动驾驶与人类驾驶事故。
结论很有意思:
大多数场景下,自动驾驶确实更安全。
比如:
但有些场景,情况刚好相反。
例如:
-
- 夜晚弱光环境:事故概率是人类的5.25倍
-
- 转弯场景:事故概率是人类的1.98倍
-
尤其是夜间环境。
自动驾驶汽车在夜晚弱光环境下的行驶状态。
摄像头、激光雷达、算法模型,在弱光、反光、复杂交通环境下,都会出现识别困难。
简单说一句:
机器怕复杂,人类反而擅长复杂。
比如一个没有标线的路口、一个突然横穿的电动车,人类司机往往能靠经验判断,但机器未必。
04.
想看真实水平,这个测试值得看看
如果你真的想知道现在各家智驾到底什么水平,我个人很建议看看一个节目——
懂车帝《懂车智驾炼场》。
懂车帝《懂车智驾炼场》节目测试场景。
他们一共找了 36辆车,做了
15个真实事故场景测试。
重点是:
这些场景全部来自真实发生过的智驾事故。
比如鬼探头、施工路段、突然变道等等。
有些结果,其实挺出人意料。
小鹏G6在测试中发生碰撞。
比如测试里,小鹏G6在某些场景就出现了碰撞。
这不是说哪家不好,而是说明一个事实:
再先进的智驾系统,也有边界。
最后的结论:别迷信智驾
最后我把话说得更直接一点。
现阶段的智驾,是一个很好用的辅助工具,但绝不是司机。
尤其是这几个场景,一定要提高警惕:
我也很负责任地说一句:
信自己,而不是信智驾。
无论技术怎么进步,至少在今天——
驾驶员永远是行车安全的最终责任人。