一、雨夜的算法抉择:谁应生存?
暴雨如注。
李哲坐在自动驾驶汽车的副驾驶座,看着雨刷以最高频率摆动,仍无法完全清除挡风玻璃上瀑布般的水流。车窗外,城市的光晕成一片模糊的色块。时间:晚上11点47分。地点:高架快速路,限速80公里/小时。
车辆正处于L4级自动驾驶模式。理论上,李哲可以完全放手——事实上,他也正这样做。他的双手放在膝盖上,眼睛盯着前方,但注意力已经分散。手机屏幕上显示着明天的会议议程,他正用脑机接口耳机口述修改意见。
“第三点,关于道德算法框架的伦理委员会审查流程……”他停住了。
不是因为思路中断,而是车辆突然减速。
不是平缓的制动,而是那种紧急情况下的剧烈减速——身体被安全带狠狠勒住,手机从手中滑落。在0.3秒内,车速从78公里/小时骤降到32公里/小时。
李哲的心脏狂跳。他抬头看向主屏幕的模拟视图。
场景在AI的渲染下变得清晰:
前方约50米处,一辆大型货车因湿滑失控侧翻,货物散落。三条车道被完全阻塞。
左侧:应急车道,但有一名穿着反光背心的道路维修工正在作业,背对来车方向。
右侧:护栏,护栏外是12米高的陡坡。
正前方:散落的货物和侧翻的卡车车厢。
车辆的计算单元在17毫秒内完成环境建模,在42毫秒内生成三个备选方案:
方案A:急转向左,驶入应急车道
预计结果:碰撞维修工的概率98%,维修工死亡率>90%
车辆损坏:中度,乘员轻伤概率70%
方案B:紧急制动+向右微调
预计结果:以约45公里/小时速度撞击护栏,有65%概率冲破护栏坠落陡坡
乘员死亡率:82%(坠落+可能的车辆起火)
维修工安全
方案C:保持当前方向,撞击散落货物
预计结果:以32公里/小时速度撞击柔软货物缓冲
乘员轻伤概率:40%,重伤概率15%,死亡概率<1%
第三方影响:无
但:货物后方可能有被困人员(传感器无法确认)
系统需要决策。时间剩余:1.4秒。
李哲的大脑一片空白。他的第一个念头不是分析选项,而是一个荒诞的问题:
“这辆车会怎么选择?它被编程为什么价值观?”
他从未如此认真地阅读过用户手册的道德附录部分。只隐约记得,这辆车使用的是“版本3.2的伦理决策框架”,基于“多国交通伦理委员会2029年共识指南”。
车辆开始执行操作。
方向盘自动向左转动15度——驶向应急车道。
李哲看到了维修工的背影,黄色反光背心在暴雨中像一朵绝望的荧光花。
“不!”他本能地抢夺方向盘,向右猛拉。
人机对抗开始。方向盘在电机驱动和他的肌肉力量之间颤抖。系统发出尖锐警报:“检测到人工干预!是否切换至手动模式?”
“是!该死的,是!”李哲吼道。
在最后0.8秒,他接管了控制权。他选择向右——不是微微调整,而是猛打方向盘,同时全力刹车。
轮胎在湿滑路面上尖叫。车辆侧滑,旋转。
世界变成慢动作:挡风玻璃外的景象如旋转木马般转动,雨滴在空中拉成斜线,仪表盘的警告灯汇成红色海洋。
然后,撞击。
不是剧烈的碰撞,而是沉闷的、包裹性的撞击——车辆以侧滑姿势撞上了散落货物堆。气囊弹出,像白色的花朵在车内绽放。
李哲被震得头晕目眩,但意识清醒。他检查自己:手脚能动,无剧痛。再看窗外:车辆半埋在货物中,但结构完整。
维修工安全。他自己轻伤。无人死亡。
他瘫坐在座椅上,呼吸急促,手抖得无法解锁安全带。
手机还在脚边闪烁,显示着未完成的句子:“道德算法框架的伦理委员会审查流程应包含……”
他闭上眼睛,突然爆发出笑声——歇斯底里的、近乎哭泣的笑声。
他,李哲,38岁,某科技公司的“人工智能伦理治理部”高级总监,刚刚否决了自己参与设计的道德算法的决策。
在暴雨之夜的高架上,在1.4秒的生死间隙里,他用自己的直觉,推翻了基于数百万公里数据训练的、经过全球伦理专家评审的、理论上“更理性”的算法选择。
为什么?
因为当算法选择牺牲一个人救五个人时,它的计算完美而冷酷。但当那个人变成具体的背影、具体的反光背心、具体的可能家庭时,李哲无法接受这种计算。
车辆的系统音平静响起:“检测到事故。已自动联系紧急服务。救援预计12分钟后到达。”
李哲看向中控屏,上面显示着刚才决策的数据复盘:
系统选择:方案A(最小化总体伤亡)
人工干预:方案C(保护第三方,接受乘员风险)
实际结果:乘员轻伤,第三方安全,财产损失中等
屏幕下方有一行小字:“本次干预事件将上传至云端,用于算法优化训练。”
李哲盯着那行字,感到一阵寒意。
他的道德直觉,刚刚成为了训练数据。下一次面临类似抉择时,算法可能会更倾向于“保护第三方”。
这意味着什么?
意味着每一场真实事故中的每一次人类干预,都在悄然改写道德的算法定义。
意味着我们正在将最根本的道德抉择——谁生谁死——外包给一个学习系统,而这个系统的“价值观”由无数个李哲这样的瞬间决定。
暴雨敲打着车顶,像千万只手指在叩问。
李哲知道,他刚刚经历的不是一次普通事故。
而是一次存在论层面的地震。
二、电车难题的工业化:从思想实验到生产线
要理解李哲经历的深层意义,我们需要回溯一个哲学思想实验如何变成工程问题。
1967年,菲利帕·福特首次提出“电车难题”:
一辆失控的电车驶向五名被绑在轨道上的工人。你可以拉动操纵杆,让电车转向另一条轨道,但那条轨道上有一名工人。是否应该牺牲一人拯救五人?
这个思想实验原本用于探讨功利主义与义务论的道德冲突。在半个世纪里,它停留在哲学课堂和伦理学论文中。
2025年,情况改变。
当自动驾驶汽车开始大规模测试时,工程师们发现:电车难题不是假设,而是必然发生的现实场景。只要自动驾驶车辆达到一定规模,类似“必须选择撞向A或B”的极端情况就会以统计确定性出现。
德国联邦交通与数字基础设施部于2026年发布了全球首份《自动与联网驾驶伦理准则》,其中包含20条规则,包括:
“在不可避免的事故情况下,禁止基于个人特征(年龄、性别等)进行歧视性选择”
“禁止将乘员与非乘员进行价值权衡”
“但:可以接受最小化总体伤害的原则”
这些准则立刻引发争议。准则第四条说:“在不可避免的事故中,任何基于个人特征的歧视都是不允许的。”这意味着不能因为一个人是老人就选择撞他,也不能因为一个人是儿童就优先救他。
但在实际编程中,工程师们发现:不区分就是另一种区分。
假设一个场景:车辆必须在撞向一群人和撞向一个人之间选择。如果不允许基于任何特征区分,那么算法只能随机选择,或者选择“总体伤害最小化”——而这本质上还是功利主义计算。
2028年,道德算法成为产业。
各大车企和科技公司开始研发“伦理决策模块”(EDM)。这些模块基于:
1.法律框架(各国交通法规)
2.伦理准则(如德国20条)
3.用户偏好设置(允许用户选择“自我优先”或“总体安全优先”)
4.机器学习(从真实驾驶数据中学习人类驾驶员的“道德直觉”)
李哲的公司开发的是“Ethos 3.2”系统。该系统采用“三层决策架构”:
第一层:规则硬编码(绝对禁止的行为,如主动攻击行人)
第二层:概率性权衡(在伤害不可避免时的最小化计算)
第三层:情景学习(从人类干预中学习“例外情况”)
问题在于,这三层之间存在难以调和的矛盾。
三、道德计算的不可计算性
李哲和他的团队面临的核心困境是:道德本质上包含不可计算的维度。
例证一:意图的权重
在传统道德哲学中,意图至关重要。故意杀人与过失杀人在道德评价上天差地别。
但算法没有“意图”——只有概率计算。当算法“选择”撞向一个人时,它不是在“故意”伤害,而是在执行优化函数。这对法律和道德都构成挑战:如何惩罚一个没有恶意的决策系统?
例证二:特殊关系的道德权重
人类道德包含“特殊义务”:父母对孩子、医生对病人、朋友对朋友。我们被允许(甚至被期待)优先保护与我们有关的人。
但算法必须一视同仁。李哲的车辆在紧急情况下,不能因为他是“车主”就优先保护他——至少根据欧洲标准不能。但作为消费者,有多少人愿意购买一辆在危机时刻不优先保护主人的车?
市场调查显示:87%的消费者希望自己的车“在任何情况下优先保护乘员”。但这与伦理准则冲突。
例证三:不可通约的价值
如何比较:
一个20岁运动员的生命
一个80岁老人的生命
一个孕妇的生命(包含未出生胎儿)
一只濒危动物(假设场景扩展到自然保护区)
算法需要可计算的权重,但有些价值本质不可通约。给不同生命赋值的行为本身,就是一种道德暴行。
例证四:随机性的道德地位
有些哲学家提出:在绝对平等的困境中,随机选择可能是最道德的。但随机算法面临两个问题:
1.责任归属困难:如果随机选择导致更糟糕结果,谁负责?
2.心理接受度:公众能否接受“你的生死由随机数决定”?
李哲的团队曾测试一个随机决策模块。在模拟中,该模块的表现“道德上最公平”,但用户体验测试得分最低。人们宁愿要一个有偏见的但可理解的逻辑,也不要完全随机的命运。
四、道德外包的四种模式
面对这些困境,行业演化出四种道德外包模式:
模式一:个人偏好设置
允许用户在购买车辆时选择道德设置:
利己模式:优先保护乘员
利他模式:最小化总体伤害
法律最低模式:仅遵守法律要求
随机模式:在不可避免时随机选择
问题:这实际上是将道德责任转移给消费者。但普通消费者是否有能力做出这样的选择?这会不会导致“道德市场”——富人选择利己模式,穷人只能买得起利他模式?
模式二:社会共识算法
通过大规模民意调查确定社会偏好,编程进所有车辆。比如,如果70%的人认为“应该优先保护儿童”,那么所有车辆都遵守这一规则。
问题:少数群体的价值观被忽视。且社会共识可能不道德(历史上有过共识支持奴隶制、歧视女性等)。
模式三:政府强制标准
政府指定统一的道德算法标准,所有车辆必须遵守。
问题:不同文化、宗教、意识形态的群体可能有不可调和的道德分歧。谁的标准成为“标准”?
模式四:实时众包决策
在紧急情况下,车辆将场景上传云端,由实时在线的“道德陪审团”(可能是AI,也可能是人类众包)投票决定。
问题:时间不允许。且存在被黑客攻击或操纵的风险。
李哲的公司选择了混合模式:基于社会共识的默认设置+有限的个人定制。但这也只是妥协。
五、责任黑洞:当无人可责
事故发生后三天,李哲参加了内部复盘会议。
场景:他的车辆(自动驾驶模式)与一辆突然变道的摩托车发生擦碰,摩托车手轻伤。事故责任认定成为难题。
传统框架下的责任链:
1.驾驶员操作失误→驾驶员负责
2.车辆机械故障→制造商负责
3.道路设计缺陷→政府负责
自动驾驶时代的新问题:
1.算法决策失误→谁负责?程序员?算法设计师?伦理委员会?
2.传感器误判→谁负责?硬件供应商?数据训练团队?
3.道德选择导致非最优结果→谁负责?选择该道德框架的人?社会共识?
法律系统尚未准备好。当前大多数国家采用“驾驶员最终负责”的原则,即无论自动驾驶等级多高,车内必须有人类,且人类对事故负最终责任。
但这引发公平性问题:如果人类必须在0.5秒内接管一个算法已经混乱的系统,这要求是否合理?
更深刻的是责任稀释效应:
•程序员说:“我只是实现伦理委员会的要求。”
•伦理委员会说:“我们只是反映社会共识。”
•立法者说:“我们只是为行业发展创造条件。”
•消费者说:“我信任专家的设计。”
•公司说:“我们遵守所有法律法规。”
结果:无人可责。
李哲在会议上提出了“道德追溯协议”概念:每一次算法决策都应完整记录:
1.输入数据(传感器原始数据)
2.决策过程(所有备选方案及其评分)
3.道德框架版本
4.最终选择及理由
这样,事故发生后可以进行“道德审计”,判断是否存在设计缺陷、数据偏见或逻辑错误。
但即使如此,核心问题仍在:如何判断一个道德决策的“对错”?
传统事故中,“过错”基于行为是否违反规则或是否合理谨慎。
但道德困境中,没有“正确”选择,只有不同价值观之间的选择。
六、边缘案例的暴政
算法开发中最棘手的是“边缘案例”——那些罕见但极端的场景。
李哲的团队每个月都会收到新的边缘案例报告:
案例0471:孕妇悖论
车辆必须在撞向一名孕妇(一人死亡+胎儿死亡)和撞向两名老人(两人死亡)之间选择。医学数据表明,孕妇生存率低于普通人(创伤对胎儿的影响),但社会价值上,孕妇常被认为“价值更高”。
案例1129:自我牺牲指令
车辆检测到即将坠崖,唯一避免方式是撞击路旁的行人(导致行人死亡但车辆得救)。车辆是否应该为了保护乘员而主动伤害无辜第三方?
案例2033:道德强迫
车辆为了避让突然冲出的儿童,急转撞向另一车道的正常行驶车辆,导致该车乘员死亡。避让行为是“道德”的,但导致了原本不会发生的死亡。
案例3108:算法博弈
两辆自动驾驶汽车在狭窄桥梁上相遇,都必须略微越线才能通过。谁应该让?如果都采用“最小化自身风险”策略,可能会僵持;如果都采用“合作”策略,可能同时越线导致碰撞。
这些边缘案例虽然罕见,但它们定义了系统的道德边界。正如哲学家所说:“伦理不是由日常行为定义,而是由极端情境中的选择定义。”
更麻烦的是,这些边缘案例往往成为媒体头条和公众恐慌的来源。一次极端案例的糟糕处理,可能摧毁公众对技术的所有信任。
七、道德能力的萎缩:当我们停止思考
李哲在事故后开始进行一项个人实验:记录自己每天需要做出的道德决策。
结果令人不安:
早上,导航软件为他选择路线,避开了“贫困率高”的街区——算法已经替他做出了关于安全与偏见的权衡
中午,外卖平台推荐“最符合他健康目标”的餐食——算法替他平衡了口味与健康
下午,会议安排系统自动拒绝了某个时间段,因为“检测到他通常此时效率低下”——算法替他管理了时间伦理
晚上,流媒体平台选择“可能提升他情绪”的内容——算法替他处理了情感调节
他发现,一天中自己主动做出的复杂道德决策不超过三个。其余都被算法代理了。
这引发了一个可怕的问题:如果我们将道德决策持续外包,我们的道德能力会萎缩吗?
神经科学表明,道德判断涉及特定的脑区(如腹内侧前额叶皮层),这些区域像肌肉一样,需要锻炼才能保持敏锐。如果很少进行复杂的道德思考,这些神经通路可能会弱化。