随着自动驾驶的快速发展,自动驾驶的伦理问题,尤其是自动驾驶的道德算法问题成为学术界讨论的热点。大多数学者认为应给自动驾驶植入道德算法,争论的焦点是应植入何种算法。但也有学者提出不同的看法,如李大山认为自动驾驶无需高阶道德算法。李大山在“自动驾驶无需高阶道德算法”(以下简称“李文”)一文中首先对一阶道德算法和高阶道德算法进行了区分,然后对给自动驾驶植入高阶道德算法“既不必要也不可行”进行了分析,最后提出避免道德两难的关键是改进自动驾驶技术的观点。苏令银、隋婷婷等学者也持类似的观点,主张“以技术手段解决伦理问题”。本文主要针对这种观点特别是李文的论述进行反驳。如非特别说明,本文所说的自动驾驶是指L4-L5级别的自动驾驶,即无人驾驶。
(图片来源:中国机器人网)
李文首先对一阶道德算法和高阶道德算法进行了区分。所谓一阶道德算法是指实现“如识别红绿灯、礼让行人、礼让救护车、不得占用应急车道等”功能而“负载特定价值取向”的算法,而所谓高阶道德算法是指“能够重新定义行动者的算法”。李文所谓的一阶道德算法虽然也涉及减少事故和损失的伦理因素,但与道德决策基本上没有关系,不属于道德算法的范畴,或者说不是学术界所讨论的道德算法。
首先,李文所谓的一阶道德算法虽然也与道德相关,但基本上都属于法律规范或市场的要求。李文所说的“识别红绿灯、礼让行人、礼让救护车、不得占用应急车道”,一般的道路交通安全法都会对此作出明确的要求,驾驶者必须严格遵守。虽然实现这些功能“负载特定价值取向”,但与复杂的道德决策并没有关系。这主要是法律规范层面的要求,而不是伦理道德层面的考量。没有这一基本能力,自动驾驶汽车就无法合法上路,更不用说获得消费者的信任。真正的道德决策往往涉及复杂的情境和价值判断,如在紧急情况下如何权衡保护乘客与行人之间的利益,这就超出了一般道路交通安全法的范畴。李文所说的要求车辆“以最短时间将用户送至目的地”,满足“过程平稳”“内部空间宽敞”“内饰高档”“车载应用丰富易用”等,这些都是旨在提高效率和用户满意度,满足市场的需求,与道德决策无关,实际上也不属于道德算法的范畴。
其次,聚焦于自动驾驶的安全性能的算法,如芥川等人的轮胎扰动控制算法,是一种纯技术的改进。将这样的算法归为道德算法并没有意义。一种算法之所以被称为“道德算法”,不仅因为它关涉伦理道德,符合伦理的要求,更重要的是它要么作为人类道德决策的助手,能够帮助人们作出符合伦理要求的决策,要么作为独立的道德主体,能够分辨善恶,自主地作出道德决策。把符合法律规范、满足用户需求、提高安全性能所作的算法上的改进称为道德算法,是对道德算法这一概念的误用。学术界讨论的道德算法一般都是指李文所说的高阶道德算法,也只有在高阶道德算法问题上才有争议,而所谓的一阶道德算法,不论是追求安全,还是效率和舒适,基本上都没有什么争议。可见,李文对一阶道德算法与高阶道德算法的区分并没有意义。
为避免歧义,下文继续沿用李文的高阶道德算法这一说法,但下文所说的高阶道德算法就是学术界所讨论的道德算法,亦即,下文不再对道德算法进行一阶和高阶的区分。
(图片来源:车主指南)
李文认为高阶道德算法是不必要的,主要有三点理由:一是产业界可以通过改进技术,降低自动驾驶发生事故的概率,无需用高阶道德算法来降低损失;二是人类驾驶面临道德两难也是作随机选择,没有必要给自动驾驶植入道德算法;三是近六年(截止2022年)报道的自动驾驶交通事故的责任归属都比较清楚,发达国家也没有植入高阶道德算法的法律法规实践,因此无需高阶道德算法。下面针对这三点理由逐一反驳。
首先,开发更敏锐的感知系统和提升数据处理能力,固然可以减少事故发生,降低损失,但技术开发具有不确定性,开发时间长短难以预测。即使开发出了更敏锐的感知系统,也只能降低事故发生的概率,而不可能完全避免事故的发生,尤其是在自动驾驶完全取代人类驾驶之前,必然有一个自动驾驶和人类驾驶并行的过渡阶段,这一过渡阶段可能是自动驾驶交通事故的高发期。即使将来自动驾驶完全取代了人类驾驶,有些事故仍然不可避免,如机械故障、制动失灵或路人、动物等不可预测的行为。李文将制动系统失灵作为自动驾驶道德两难产生的前提也是片面的。制动系统失灵只是自动驾驶道德两难产生的原因之一。在实际驾驶过程中,造成自动驾驶道德两难的情况非常复杂,如自动驾驶车辆迎面驶来一辆失控的重型卡车。在不可避免发生事故的情况下,自动驾驶车辆仍然需要在多个不理想的选择中作出决策,单纯依赖技术优化而不考虑道德决策的系统可能会导致难以预料甚至不公正的后果。如果自动驾驶车辆因不预先考虑在多个不理想的选择中作出决策——这种不作为也会被认为是一种事先确定的选择——而造成了不公正的后果,其存在的合法性就会受到质疑。道德算法能够为自动驾驶系统提供一个在紧急情况下进行公平决策的框架,确保在无法完全避免损失时作出的决策符合社会的伦理标准。
其次,人类驾驶员面临突发的道德两难时往往来不及思考,所做出的行为因个体化和情绪化而具有不确定性,但人类驾驶员的这种随机性是可以理解的,而且人类驾驶员要对他的选择进行负责。如果自动驾驶也像人类驾驶员那样随机选择,至少不符合人们对它的期待。自动驾驶代替人类驾驶的一个最重要的理由就是可以减少事故,增加确定性,而不仅仅是减少人类的劳动。
再次,近六年的民用自动驾驶尚处于L2-L3阶段,是还需要人类驾驶员的低级阶段的自动驾驶。李文列举的一类交通事故就是由于驾驶员未严格按照操作手册进行操作而导致的。一般道德算法所说的自动驾驶都是指L4-L5级别的自动驾驶,即无人驾驶。低级阶段的自动驾驶最终都会被无人驾驶所淘汰,而且淘汰的速度远超出公众的预期。李文以低级阶段的自动驾驶的交通事故数据为依据来反驳高级阶段的自动驾驶的需要显然不合逻辑。L2-L3阶段的自动驾驶数据虽然对L4-L5级别的自动驾驶有一定的参考价值,但L4-L5级别的自动驾驶车辆已完全接管驾驶任务,无需人类驾驶员的介入,这与L2-L3阶段的自动驾驶有本质的区别。如果不事先考虑可能发生的交通事故的责任归属,一旦发生排除路人或其他车辆违规的交通事故,如何明确事故责任呢?
李文以发达国家没有植入高阶道德算法的法律法规实践为依据来否认道德算法的必要性也是不充分的。李文显然忽视了法律的回应性和滞后性。科学技术的快速发展导致许多新问题产生,但法律不可能很快作出相应的调整和应对,因为法律需要保持相对的稳定性,以确保其权威性和可预测性。道德算法涉及深层次的伦理问题,平衡不同的道德原则需要政策制定者、技术开发者、伦理学家和公众的广泛讨论和研究。只有在形成广泛的社会共识后,才能制定相应的法律法规。而且,法律制定还需考虑国际合作与协调。自动驾驶技术和相关道德算法问题是全球性挑战,不同国家在道德观念、技术水平和法律体系上的差异,需要国际间的沟通与合作。这一过程也是复杂而缓慢。因此,李文所说的没有看到“高阶道德算法的法律法规实践”也就很正常了。相反,如果没有经过充分的酝酿,过早地制定法律规定很可能会阻碍技术的发展。事实上,目前很多国家都在尝试将道德算法写入法律。德国2021年制定了《自动驾驶法》,虽然很多条款还有待进一步明确,但开启了道德算法的法律法规实践。在法学界关于自动驾驶讨论中,很多学者也主张构建道德算法。
(图片来源:新出行)
李文不仅认为高阶道德算法“不必要”,而且认为它“不可行”。李文列举了植入高阶道德算法不可行的四点理由:一是由谁制定有争议;二是制定何种内容有争议;三是导致算法供应商负有“原罪”;四是导致责任归属过度决定。对李文的这四点理由,下面逐一剖析。
首先,道德算法由谁制定存在两种观点:一种观点认为,道德算法由供应商提供,让消费者选择,即所谓个人化的伦理设定;另一种观点则认为,道德算法应由政府统一规定行业标准,即强制的伦理设定。经过广泛而深入的讨论,目前学术界逐渐形成共识,即自动驾驶道德算法只能是强制的伦理设定。因为个人化的伦理设定,不仅会使得自动驾驶的行动模式缺乏一致的协调性,从而降低整个行业的效率和安全价值,而且会造成更多的道德问题,给个体带来沉重的负担,最终必然导致“囚徒困境”。政府作为公共利益的代理人和决策者,能客观公正地引领目前存在的法律伦理困境的解决,促进法律和伦理的协同。
其次,关于制定何种内容,争论的焦点主要集中在两个方面:一是在不可避免的碰撞事故中,当生命冲突处于乘客和车外人员之间时,是否需要将乘客置于优先获得保护的地位,即是否遵循乘客优先的原则;二是在不可避免的碰撞事故中,当生命冲突处于车外人员之间或乘客与车外人员之间时,是遵循旨在保全多数人生命的多数原则,还是遵循听天由命的随机数原则?上述争议并非“无解”,只要确立几条基本的原则以及这些原则之间的优先顺序,这些争议可以消除。按优先顺序,这些需要确立的基本原则依次是:①生命权平等原则;②遵守交通法规优先原则;③最小损害原则;④不改变路线原则。其中,生命权平等原则是最基本的原则,优先于其它原则,即在坚持生命权平等的原则下适用遵守交通法规优先原则。同理,如果都遵守交通法规,则适用最小损害原则;如果损害相等,则适用不改变路线原则。如果用这些基本原则来分析第一个争论,那么,乘客优先原则是不能成立的。乘客优先原则意味着,当出现生命冲突时,保护乘客是以牺牲无辜的车外人员为代价的,或者说是潜在地把无辜的车外人员当作工具。这不符合生命权平等原则,违背了公平正义的要求。同样,如果用这些基本原则来分析第二个争论,那么,多数原则优于随机数原则。选择随机数原则是一种不严肃、不负责任的行为,违背了人类理性的要求,也不符合一般公众的道德直觉。多数原则,即最小损害原则是在伤害不可避免的情况下,尽可能挽救多数人的生命,实现更大的善。它没有义务论者所批评的“制造伤害”的主观意图,也没有造成更坏的结果。最小损害原则以生命权平等原则为前提,并不违反“人是目的”原则。最小损害原则也是以遵守交通法规优先原则为前提的,如果只能在撞向不遵守交通法规的多数人和撞向遵守交通法规的少数人之间选择,则选择撞向不遵守交通法规的多数人。因为遵守交通法规优先原则,不仅是对无过错的一方优先保护,符合公平原则,而且是对守法行为的一种激励。以生命权平等原则和遵守交通法规优先原则为前提的最小损害原则实际上是一种以义务论进行调试的规则功利主义,其对普适规则的追求,本质上与义务论相同。
再次,关于高阶道德算法是否导致算法供应商负有“原罪”和责任归属过度决定的问题,李文认为,高阶道德算法必然导致“责任先定”,从而导致责任归属“过度决定”。在法学界,关于人工智能在交通肇事中扮演的角色也有“主体肯定说”与“主体否定说”之争,“主体肯定说”认为人工智能可以承担刑事责任,而“主体否定说”则认为人工智能不能承担刑事责任。如果按照“主体肯定说”的观点,人工智能可以承担刑事责任,不存在“责任先定”。如果按照“主体否定说”的观点,交通肇事的责任由生产者和使用者承担,其中使用者主要承担不进行日常检查和风险制止的责任,其它责任则由生产者承担。自动驾驶越“智能”,使用者的责任就越小,而生产者的责任就越大。“责任先定”是自动驾驶区别于人类驾驶的一个特征,自动驾驶越“智能”,交通肇事的风险归责就越被前置化,不管有没有道德算法,责任都是“先定”的。“责任先定”并不意味着算法供应商承担“原罪”,算法供应商虽然提供算法,但他们并不是“算法决定者”。道德算法的设定一定是包括生产者、使用者、管理者乃至路人等利益相关的多方主体反复讨论、协商的结果,是体现正义的透明的社会决策。如果道德算法是由公民投票通过或者是在广泛民意的基础上由职能部门决定,那么算法供应商这个“原罪”也就自然消解了,也就不存在所谓的责任归属“过度决定”。
总之,面对技术特别是人工智能的飞速发展,人类的道德实践不得不作出调整。人工智能极大地增强了人类改造社会的能力,但人类也要为这种能力的应用承担更大的责任,而不是听之任之。
本文选自《自然辩证法通讯》2026 年 第48卷 第2期