咱们先从最现实的问题说起。自动驾驶分级,业内公认的标尺是SAE(国际汽车工程师学会)制定的标准。L2叫部分自动驾驶,L4叫高度自动驾驶,夹在中间的L3叫“有条件自动驾驶”。
看着挺严谨,但在现实马路上,这个“有条件”简直就是反人性的设计。
L2的责任划定非常清晰:机器只是个辅助,司机才是真正的驾驶员。出了事故,不管你当时有没有开自适应巡航,司机全责。这很符合老百姓的常识。
L4的界限也很明白:在特定的区域和环境里,车自己开,司机可以闭上眼睛睡觉。出了事,主机厂或者系统提供商买单。
唯独这个L3,它的逻辑是:系统正常运行的时候,机器负责;一旦系统遇到搞不定的紧急情况,它会发出警报,要求人类驾驶员立刻接管。如果在接管过渡期或者人类没接管成功出了事故,这笔糊涂账算谁的?
这简直是在挑战人类的生理极限。想象一下这个画面:在高速上以120公里的时速巡航,车子告诉你“现在是L3模式,你可以不看路了”。于是你开始低头回微信,甚至看起电影。突然,前方出现一个极其罕见的异形障碍物,系统识别不了,警报大作,要求你在两三秒内弄清楚路况、夺回方向盘并做出正确的规避动作。
这可能吗?F1赛车手都未必能做到。
人类的注意力一旦转移,重新聚焦并且建立态势感知是需要时间的。L3系统等于给人类安排了一个极其荒谬的角色:平日里把你当大爷一样伺候,让你放松警惕;一旦大祸临头,立马把方向盘扔给你让你去救火。
这种责任主体的反复横跳,对各国的交通法规来说都是一场灾难。交警怎么判定当时是机器在开还是人在开?保险公司怎么定损理赔?车企更是每天提心吊胆,生怕一场因为接管不及时的车祸,就把好不容易建立起来的品牌信任度彻底砸碎。
所以何小鹏说L3责任主体不清,这是大实话。一个连出事后谁赔钱都扯不清楚的技术,根本不可能大规模商业化。