自动智能驾驶悖论是电车难题在自动驾驶中的重现。与一般所谓电车难题的诸版本有所不同,它隐含着一个更为深刻的伦理层次上的功能推理——既不指向完美式技术解,也不指向鸵鸟式策略解(它不符合AI科技创新的进化规律),而是指向AI伦理风险防范解。也就是说,当不可避免的碰撞发生时,自动驾驶汽车只能基于预置的“碰撞优化的道德算法”进行抉择。
自动驾驶作为人类驾驶行动的代理者而行动,当其面对一种极其复杂的“生命安全分配”的道德选择时,既不能诉诸任何随机性判断,也不能诉诸任何形式的本能、直觉或者运气,而只能依据预先植入的高阶道德算法而行动。假设自动驾驶既无法找到完美式技术解,又不能采取鸵鸟式策略解,而只能面对“救乘客”VS“救行人”或者“伤害5人”VS“伤害1人”的两难道德抉择,那么“伦理风险防范解”就是符合伦理现实主义原则的解题方案。
现实中的自动驾驶行为和自动自主决策存在着高度的复杂性和情境不确定性。所谓伦理风险防范解,是指在为自动驾驶预备责任行动伦理算法时,要选择伤害最小化的路径。这一解题方案围绕如下总问题展开:在自动驾驶的控制逻辑中,应该为之预备何种道德理论才能促成伤害最小化效应?如果没有预先设定某种用于伦理风险防范的道德框架,一旦自动驾驶在碰撞情景下遭遇电车难题,就只能诉诸某种随机的决定,从而会导致不可预测、不可掌控的伦理风险的发生。
目前,学界关于为自动驾驶预备何种高阶道德算法的讨论存在争议。人文社会科学领域的讨论通常在语义内容层次上展开,不涉及符号计算层次的计算机语言。一般来说,用自然语言描述道德算法,通常根据能否“个性化调节”,将高阶道德算法分为“强制性伦理算法(MES)”和“个人化伦理算法(PES)”。
“强制性伦理算法(MES)”作为备选的高阶道德算法,取消了碰撞中将自主驾驶权归还给人类驾驶员的算法选择权。学界讨论最多的高阶道德算法有两种:(1)功利主义算法;(2)罗尔斯算法。这两种道德算法遵循不同模型。由于关注“伦理风险”而把决策结果作为优先相关方予以价值估算,由此可建构功利主义算法(公正旁观者模型)和罗尔斯算法(公平正义模型)。它们作为结果导向的高阶道德算法,能兼容强制性伦理算法(MES)中的一阶道德算法,特别是“制动力学算法”。它们的不同之处在于:功利主义算法关心结果公正,特别强调对结果的预测、赋值、比较和最优化,以及平等权衡利益相关方的利益最大化,它并不把决策选项和决策本身视为最相关的方面;罗尔斯算法除了关心结果公正外,还特别强调决策选项和决策本身的正当性或公平性。对于罗尔斯算法的“公平模型”而言,挑战不仅来自处理冲突的效用计算(或预测)以及存在的“不准确性”和例外,还来自规则获取及其情境依赖性等。而对于功利主义算法的“公正模型”来说,挑战主要来自效用及其赋值的确定问题和聚合问题。
上述两种常见的高阶道德算法在为特定道德难题提供“问题解”时,都存在某种内在缺陷:功利主义算法并没有考虑到乘客对待自身与他人生命安全时潜在的不同态度。例如,当人们成了被牺牲的少数人时,并不是所有人都还能坚持功利主义正义原则;罗尔斯算法也同样会面临指责,因为这类复杂计算的有效性始终存在“漏算”或“失算”带来的不公平问题,因而是令人生疑的。
另外一种高阶道德算法是“个人化伦理算法(PES)”。它主要针对目前强制性伦理算法并不能满足人们实际操作的需要,从而提出的一种更贴近现实的高阶道德算法。
所谓“个人化伦理算法(PES)”,是指自动驾驶应该通过设置“非固定算法”,将普遍性的道德算法转化为个人化的道德选择。也就是说,它通过将道德判断的预选权交给使用者,通过以“预选”取代“预设”,从而达成自动驾驶与个体化道德选择的结构性耦合,完成“固定算法”向个人化选择的转换。在这个理论框架下,贾斯帕·康提萨(Guiseppe Contissa)提出了著名的“伦理旋钮”(ethical knob)架构。伦理旋钮左右端分别对应“利己主义”(优先保护乘客)和“利他主义”(优先保护行人),旋钮中央则代表“完全中立”,旋钮偏左就是“偏-利己主义”,旋钮偏右就是“偏-利他主义”。“伦理旋钮”将自动驾驶的算法设置权交付给车主,能够化解自动驾驶在发生事故后所面临的归责困境。但从理论逻辑上看,该算法可能会陷入集体性“囚徒困境”:大多数车主为自保而在算法设置上作出极端利己的选择,致使社会总伤亡程度增加。
“伦理旋钮”协调的是乘客与行人的生命权重问题。在不涉及乘客生命安全的情况下,“伦理旋钮”这样的个人化伦理算法反而无法很好地处理经典电车难题——它并不能为自己的选择给出任何理由。我们可以为自动驾驶预备一种“伦理旋钮”的设置,使其在应对生命抉择难题时将选择权及其相应责任一并交给人类驾驶员,但它的功能也仅限于此。由于自动驾驶在面对碰撞选择时启用个体化道德选择,已经属于以隐私安全为中心的道德架构问题。一方面,自动驾驶的个人化伦理算法需要深度介入隐私安全领域,这使得预期效用评估变得非常困难;另一方面,人类驾驶员转动“伦理旋钮”可能会产生不能掌控的例外。
总之,为自动驾驶预备高阶道德算法,旨在为自动智能驾驶悖论提供可供选择的“伦理风险防范解”。如果自动驾驶具备理想的公路条件或者完美式技术解,它就不需要高阶道德算法。当这两个条件都不具备时,并且在通用人工智能(AGI)接入的情况下,为自动驾驶预备强制性伦理算法(MES,包括功利主义算法、罗尔斯算法)和个人化伦理算法(“伦理旋钮”算法)就是一种现实主义的“伦理风险防范解”。高阶道德算法由于超出了“驾驶专家”级别的道德框架,因而在伦理工程学的功能推理上不属于一阶命题范畴,而属于高阶命题范畴。这使得预备人类驾驶员优先介入所需要的以隐私安全为中心的道德架构问题,必然出现在自动驾驶的预备责任行动伦理的讨论中。