我们已经能让汽车在高速公路上自己开两个小时,却始终没法让它在城市路口独立做决定。卡住我们的不是算法不够强,而是一个更古老的问题:当机器犯错,谁来负责?
先说一个让人有点尴尬的事实:自动驾驶这个词,已经被喊了将近二十年。2004年DARPA无人车挑战赛,参赛车辆在沙漠里最远只跑了11公里就趴窝了。今天,我们的量产车能在高速上跑数百公里不用手扶方向盘。进步是真实的。但L5——任何场景、任何天气、完全无人——依然停留在PPT里。这中间发生了什么?
SAE把自动驾驶分成0到5级,这套分级在工程师圈子里人尽皆知。但大多数科普文章讲完分级就算了,忽略了一个更关键的问题:为什么偏偏L3是个陷阱?
L2是辅助,人始终盯着;L4是自动,机器全权负责。L3夹在中间,定义是「特定条件下可以不管,但随时准备接管」。听起来合理,实际上是个认知灾难。人类一旦放松注意力,重新进入「驾驶状态」需要平均3到7秒。而高速公路上,3秒意味着车辆前进了将近100米。这不是驾驶员懒,是人类大脑的生理极限。奔驰2023年在德国拿到了全球第一张L3量产许可,但它的使用条件是:车速不超过60公里/小时,且驾驶员必须能在10秒内接管。你看,连最激进的推进者也不得不给L3加上密密麻麻的括号。
外界讨论自动驾驶,最爱聊传感器军备竞赛:激光雷达贵不贵、摄像头够不够清晰、毫米波雷达能不能穿透大雾。这些当然重要,但感知问题其实基本解决了。一辆中高端智能车的传感器阵列,在晴天直道上的环境建模能力已经远超人类。它能同时追踪周围几十个目标的速度和轨迹,人类做不到。
真正的难题在感知之后:拿到环境数据,然后呢?一个骑自行车的外卖员在路口犹豫了半秒,他到底是要直行还是转弯?一个突然停在路边的车,是临时靠边还是要开门?一群小学生在没有斑马线的地方准备过马路,他们会不会真的走出来?这些判断,人类靠的是对「意图」的感知,是对社会规则的理解,是对人性的预判。这些东西,不在激光雷达的点云数据里。
98%
特斯拉FSD在结构化道路的干预率已降至此水平以下,但剩下2%的场景消耗了研发团队大部分精力
有一个工程界的老话叫「最后一公里问题」。自动驾驶也有类似的规律:前80%的场景,用规则+模型能覆盖;后20%的边缘情况,需要的数据量和计算量是指数级增长的。行业里管这叫长尾问题。
想象一下:一辆消防车逆行超速驶来,同时路口信号灯故障,旁边有个交警在打手势,手势和信号灯又互相矛盾。这种场景在人类驾驶员眼里,大概每开几年才会碰到一次。但要让自动驾驶系统在这种场景下做出正确判断,工程师需要为它专门设计规则、采集数据、反复测试。而类似的「极端场景」有成千上万种。Waymo迄今在公开道路上累计行驶超过3200万公里,依然没有宣布解决了所有边缘情况。不是因为他们不努力,而是现实世界的复杂度,本质上是开放的。
2018年,Uber无人车在亚利桑那州撞死了一名横穿马路的女性。调查结论之一是:系统识别出了行人,但由于判断逻辑的设置,它认为「不需要紧急制动」。这起事故之后,美国多个州暂停了无人车测试许可。注意,这不是「AI识别失败」的故事,而是「AI做出了一个判断,但这个判断是错的」的故事。两者的法律含义完全不同。
前者是技术缺陷,后者是决策失误。当一个系统有能力「做决策」,它就必须为决策的后果负责。但公司是法律实体,软件不是。现有的法律框架,根本没有为「机器决策失误」设计过责任归属路径。这才是自动驾驶真正的监管难题——不是该不该上路,而是出了事之后,法庭里谁站在被告席上。
中国的路径和欧美有些不同。国内几个城市已经发放了无驾驶员的Robotaxi商业运营牌照,萝卜快跑在武汉的运营规模全球领先。这条路线选择的是「先在有限区域内跑通L4,再逐步扩大范围」,绕开了L3的责任真空,也绕开了「如何说服人类放手」的心理难题。这或许是目前最务实的路线,但它意味着自动驾驶的普及,会是一个漫长的地理扩张过程,而不是某一天突然「全面实现」。
✦ 小结
自动驾驶不缺传感器,不缺算力,甚至不缺数据。它缺的是一套能让社会接受「机器来决策」的信任体系——技术的、法律的、心理的。L5不是一个工程里程碑,它是一场关于人类愿不愿意把「驾驶这件事的控制权」彻底交出去的社会谈判。这场谈判,比任何一行代码都难写。