近年来,自动驾驶已成为一个热点话题,以至于有酒后驾车的人拿自动驾驶说事:“我不是酒驾,我开启了自动驾驶模式。”经交警查看,他所驾驶的车辆根本不具有自动驾驶的功能。
这里需要先澄清一下,现在所谓的自动驾驶,准确地说都是一种辅助驾驶,或者按照厂商“忽悠”人的说法是“智驾”(智能辅助驾驶)。真正意义上的自动驾驶,是指通过人工智能、传感器和其他技术在车辆完全没有人为干预情况下的自主行驶。
正是因为厂商的“忽悠”,才出现了多起因驾驶员轻信“智驾”而造成的交通事故。
2024年10月14日,湖南一辆小车冲入绿化带内,与施工车辆追尾,致2人死亡,1人受伤。经查,事故前,小车驾驶员开启了“辅助驾驶”功能,分心驾驶,酿成惨剧。
2024年10月26日,沈海高速福建福鼎段,一辆小车超车时剐蹭了中央护栏。驾驶员当时开启“辅助驾驶”功能,自己则在操作手机。
2025年3月24日,山海高速上,一辆小车剐蹭中央护栏,系由驾驶员开启定速巡航模式,疏于观察前方情况所致。
2025年4月,京沪高速扬州宝应段,一辆小车撞上护栏。原因是驾驶人开启“智能辅助”功能,其间有过犯困打盹儿。
2025年7月7日,浙江嘉兴一驾驶人醉酒后开启“智驾”功能,自己当“甩手掌柜”,直至遇到交警查酒驾,才接管车辆。
上述案例中,驾驶员均有意、无意地将“智能辅助驾驶”与自动驾驶或无人驾驶相混淆。需要特别强调,即使车辆有“智驾”功能,也不能代替驾驶员的驾驶和判断,驾驶员始终是车辆行为的完全责任人。
当前,“辅助驾驶”的核心价值是减轻疲劳,而不是替代驾驶。部分驾驶员误以为开启“辅助驾驶”功能后,事故责任由厂商负责,这是严重误解。在现行法律中,驾驶员是第一责任人,辅助系统只是工具。如果出现疲劳驾驶、酒驾、醉驾等违法行为,一样会受到法律的严格处罚。
虽然车辆出现事故,要追究驾驶员的法律责任,但并不意味着厂商就可以完全免责。《广告法》明确规定,厂商虚假宣传自动驾驶,将面临罚款乃至吊销营业执照的处罚。若虚假宣传造成严重后果(如引发交通事故致人伤亡),可能触犯《刑法》,责任人有可能面临2年以下有期徒刑的处罚。
考虑到安全性,目前自动驾驶尚处于测试阶段。据报道,截至2024年8月27日,公安机关已累计发放自动驾驶汽车测试号牌1.6万张,开放公共测试道路3.2万公里。
自动驾驶分为多个级别。2021年8月,我国发布了《汽车驾驶自动化分级》,明确了各个级别的定义。
L0:系统会提供警告,或者短暂的控制。驾驶员是车辆行驶的唯一决策者,需要控制方向盘、油门、刹车等。典型功能有车道偏离预警、自动紧急刹车等。
L1:系统会提供转向、制动和加速等车辆控制,可以辅助驾驶员进行驾驶控制,如车道保持辅助、自适应巡航控制等。
L2:系统可以主动保持与前车距离的同时,纠正车辆在车道内的横向位置,保持在车道中间行驶,如车道居中辅助(LCC)、自动辅助驾驶(AP)。L2系统只提供车辆辅助功能,驾驶员仍需始终对车辆行驶安全负责。
L3:在一定条件下,系统驾驶权与责任全部交给自动驾驶系统。当不符合条件时,系统提出接管请求,由驾驶员接管车辆。在自动驾驶时,事故责任可能归于厂商。然而,当系统提示驾驶员接管,驾驶员未能及时反应导致事故,责任仍由驾驶员承担。
L4:系统几乎不需要驾驶员监控路面和系统状况。当系统出现不能满足自动驾驶条件的工况时,如驾驶员无反应,可以自动执行动态驾驶任务接管,系统具有自动达到最小风险状态的能力。在该等级下,无人驾驶汽车的事故责任一般由厂商负责。
L5:系统在任何可行驶条件下都能完成所有驾驶任务。
当前大部分厂商的车辆汽车无人驾驶等级位于L1、L2。按照上面的分级说明,这两个级别的自动驾驶,驾驶员是车辆行驶安全的唯一责任人。未来的L4、L5两个级别下,厂商将承担车辆行驶安全的全部责任。不过,这两个级别的车辆尚处于实验阶段。
曾有厂商宣称自己的汽车具有自动驾驶功能,实际上是接近了L3级别。这个级别的车辆,当具备一定条件时,可以实现自动驾驶。在自动驾驶时,车辆出现行驶安全问题,应当由厂商负责。不过,一旦条件不具备,系统会提示驾驶员接管。问题在于,此时,驾驶员接管后也不可能避免事故发生。比如,车辆马上要撞墙了,系统让驾驶员接管,驾驶员根本来不及刹车。这是责任争议的焦点。
要实现自动驾驶,AI至关重要。正如特斯拉AI软件副总裁阿肖克·埃卢斯瓦米(Ashok Elluswamy)所说的:“自动驾驶本质是AI问题,而不是传感器问题。”换言之,要完善目前的智能辅助驾驶,并最终实现自动驾驶,必须把着眼点放在AI技术的突破方面。
在2008年前后的技术拓荒期,业界普遍认为制约自动驾驶技术实现的是传感器问题。因为当时的AI水平尚不足以从摄像头中提取有效信息,因而不得不依赖激光雷达等多种传感器。现在AI技术已取得重大突破,摄像头所提供的信息已经足够丰富,关键在于如何通过AI理解世界并预测他人行为。车辆行驶在路上,就是一个交通参与者,但是不存在一种理想的情况,就是路上只有一辆车,没有其他车辆和行人,而且路面的宽度也不允许车辆随意行驶。在某种意义上来说,实现车辆自动驾驶的难度远高于飞机自动驾驶的难度。因为自动驾驶要运用AI理解周边的环境,也要理解其他人(包括其他车辆和行人)接下来会怎样做。所以说,自动驾驶现在面临的问题是AI问题,而不是传感器或者其他技术和因素。
正是基于上述考虑,2026年,特斯拉计划在中国市场加大AI软硬件方面的投入。据悉,针对中国辅助驾驶和AI应用场景,特斯拉已在中国建设了一家AI训练中心,从而进行特斯拉AI在中国的本地训练能力部署。
说到汽车产生的动因,效率无疑是首要的。然而,安全问题也至关重要。所以,在不同的路段都有限速要求,各种交通规则也都是出于安全的考虑。如何平衡效率与安全,一直是交通管理中的一个重要问题。
为什么交通安全问题相当重要呢?因为这里涉及人的生命和健康问题。一旦出现车辆事故,轻则造成驾驶员和车上人员及行人受伤,重则造成人员死亡。所以,对交通安全如何强调都不为过,绝对不能以牺牲人的生命和健康为代价来换取交通效率。不过,同样是人的生命,如何取舍就是一个伦理困境。电车难题就是这一伦理困境的经典思想实验。
电车难题的核心内容是假设有一辆失控的电车飞速驶来,轨道上的五个人危在旦夕,旁观者可以扳道使电车转向另一轨道,但这样一来,也会撞死另一轨道上的一个人。请问,旁观者是否应当扳道,以一个人的生命为代价挽救五个人?
这一伦理难题,涉及功利主义主张的“最大多数人利益”原则。不过,生命能否简单按数字多寡来衡量?
再假设那一个将要被牺牲的是旁观者的亲人,旁观者又会如何做?春秋时代的故事《赵氏孤儿》中,程婴用自己孩子的生命换下了赵武的生命。程婴是义士,但是那个无辜死去的生命,岂非成为成就程婴义士美名的工具?
如果另一轨道上的人就是那个旁观者,他选择牺牲自己挽救他人,就是君子乃至圣人之举了。
电车难题除了上述扳道以改变电车行驶路线的一种场景外,还有推落路人以阻挡电车前行的一种场景。不过这种做法因为直接参与杀人行为而引发道德义务论的反对。
电车难题虽然是一个思想试验,但不代表现实中就不存在这种伦理选择的场景。比如,一个飞行员发现飞机即将坠毁,他面临选择:要不要将飞机开到一个较少人居住的地方?一般的情况下,飞行员会尽量将飞机开到无人区,但是假如飞机坠落的区域就是城市,他如何选择呢?然而,无论飞行员如何选择,他都会面临道德罪恶感,因为死者都是因他的选择才失去生命的。
回到驾驶车辆这个场景,也不说复杂的伦理困境。在排除酒驾、毒驾、疲劳驾驶以及突发疾病的情况下,一般人开车,在车辆失控时,都会选择避开行人。同时,求生的本能也会令驾驶员尽可能不让自己直接撞向障碍物。所以,最安全的位置是驾驶员后面的位置,而最不安全的位置则是副驾位置。
在自动驾驶场景中,AI如何选择?它会怎样应对前述伦理困境?虽然各大厂商纷纷推出智能辅助驾驶的功能,但尚无哪一家企业明确将车辆发生交通事故的责任承担起来。考虑到现在的自动驾驶并非完全意义上的车辆自主行驶,而只是一种辅助功能,车辆出现交通事故还是按照传统车辆事故的责任承担模式。厂商为了保护自己的利益,规避风险,实际上已经在格式合同中将智能辅助驾驶的责任推得一干二净了。然而,在销售车辆打广告时,厂商又特意突出宣传车辆的“智驾”功能,仿佛开上这辆车,驾驶员就高枕无忧了。
近几年来,若干起“智驾”车辆造成的事故,之所以引发社会的关注,就是因为没有厘清责任,或者说没有在道理上讲清楚。尽管厂商在格式合同中规避了自身责任,但在销售时又大力宣传其“智驾”功能,这就涉嫌“忽悠”消费者了。
随着AI技术的发展,真正意义上的自动驾驶必然会出现。届时,车辆出现事故,如何厘清各方责任?如果让消费者来承担责任,明显不合理。因为那时根本没有驾驶员,而由车辆完全自主行驶。如果所有事故责任都由厂商来承担,估计厂商是要破产的。
所以,在自动驾驶技术研发的同时,必须有前瞻性的考虑:假如自动驾驶的车辆在面临前面所说的电车难题时,AI会如何选择?当然,说AI的选择,其实是由AI开发者事先在“培训”AI时,给它“灌输”何种伦理规范。能否以功利主义作为唯一选择?如果是这样的话,能否说AI掌握了对人(哪怕是少数人)的生命的处置权呢?这是一个需要慎重考虑的问题。