如果自动驾驶汽车必须选择撞谁,算法会杀人吗?
“这不是科幻小说,而是工程师正在面对的终极难题
01 一个让所有人沉默的场景
你坐在一辆L5级全自动驾驶汽车里,正行驶在一条狭窄的山路上。
突然,刹车失灵。
前方,五个工人在路上施工。
右边岔路上,有一个行人。
如果是你驾驶,你会怎么做?
如果是自动驾驶的算法,它又该怎么做?
这不是科幻小说。
随着智能驾驶技术飞速发展,“电车难题”已经从哲学家的思想实验,变成了摆在工程师面前的真实考题。
02 什么是“电车难题”?
1967年,哲学家菲利帕·福特提出了一个著名的思想实验:
“一辆失控的电车正冲向被绑在轨道上的五个人。你可以拉杆,让电车转向另一条轨道。但那条轨道上也有一个人。
你会怎么选?
这个实验的精髓在于:
无论你做什么选择,都会造成伤亡。
你愿意亲手牺牲一个人,去救五个人吗?
2016年,MIT进行了一项大规模调查——“道德机器”实验。
他们收集了来自233个国家和地区、上千万人的道德偏好数据。
结果很有意思:
但还有一个关键发现:
“当被问到 “你是否会购买一辆在极端情况下会牺牲你的自动驾驶汽车” 时,大多数人的答案是否定的。
这就是自动驾驶伦理困境的核心矛盾:
我们想要一个“道德”的算法,但没人愿意为此买单。
03 现实远比“电车难题”复杂
智能驾驶的决策,远不是“撞一个还是撞五个”这么简单。
🔍 感知的局限
传感器能准确识别前方是塑料袋还是行人吗?
毫米波雷达、激光雷达、摄像头各有优劣。恶劣天气下,识别率会大幅下降。
如果连“有什么”都不确定,又怎么决定“怎么做”?
📈 预测的不确定性
那个站在路边的行人,是要过马路还是只是在等车?
那个骑自行车的人,会突然变道吗?
人类行为充满随机性,任何预测模型都有误差边界。
⏱️ 时间的紧迫性
在高速行驶中,决策窗口往往只有零点几秒。
你不可能在这段时间里完成复杂的伦理计算。
算法必须在设计阶段就嵌入价值判断。
一位自动驾驶公司的工程师曾坦言:
““我们不会在代码里写‘牺牲一个人救五个人’这样的逻辑。实际的做法是,我们设定一个安全目标:最小化整体伤害风险。但具体到每一次事故,结果其实是概率性的。”
换句话说:
工程师们不是在解决“电车难题”,而是在努力避免遇到“电车难题”。
04 从“怎么做”到“谁说了算”
德国是全球第一个对此作出回应的国家。
2017年,德国伦理委员会发布了自动驾驶伦理指南,提出了几条核心原则:
- 不允许基于个人特征(年龄、性别、身体状况)进行歧视性区分
听起来很合理,但执行起来却问题重重。
““不允许基于年龄区分”——这意味着算法不能优先救小孩而牺牲老人。
但如果一个场景中,救五个人意味着必然牺牲一个人,算法该怎么做?
指南说:不能为了救五个人而主动选择牺牲一个人。
这等于要求算法“不作为”,把选择权交给偶然。
这真的是更好的方案吗?
与此同时,汽车制造商和科技公司面临着更大的困境:
- 如果他们公开宣称自己的算法会在某些情况下牺牲乘客来保护行人——谁还会买他们的车?
- 如果他们宣称算法会优先保护乘客——又如何在伦理审查和舆论压力下过关?
这导致了一个尴尬的局面:
没有人愿意公开讨论这个问题,更没有公司愿意公布自己的解决方案。
05 沉默背后的隐忧
行业的集体沉默令人担忧。
当算法决策不透明时,我们面临几个风险:
⚖️ 责任归属模糊
一辆自动驾驶汽车发生事故后,责任在谁?车主?软件开发商?硬件制造商?还是数据标注员?
未来会有大量诉讼围绕 “算法如何决策” 展开。
🤝 社会信任缺失
如果公众不知道自动驾驶汽车在极端情况下会如何选择,他们就无法建立真正的信任。
而信任,是自动驾驶技术普及的前提。
🌍 价值强加
算法开发者大多是特定文化背景下的工程师。
他们的价值判断会通过代码被固化下来,强加给全球用户。
一个在硅谷开发的伦理模型,真的适用于北京、孟买或开罗的交通场景吗?
06 超越“电车难题”的思考
也许,我们需要换一个角度思考这个问题。
第一,技术可以把事故概率压到极低
“电车难题”预设了一个非此即彼的极端场景。
但现实中,绝大多数事故可以通过技术手段避免。
更优秀的传感器、更强大的算力、更完善的V2X车路协同——可以把“无法避免的事故”压缩到极小概率。
第二,伦理决策不应该被封装在单一算法中
有学者提出“个性化伦理”方案:
让用户在购车时选择自己偏好的伦理模式——比如“利他模式”“利己模式”“遵循交通规则优先模式”等。
但同时要明确告知用户每种模式的风险和局限。
当然,这种方案也有争议:
- 如果所有人的选择都是“利己模式”,行人的安全如何保障?
第三,我们需要系统层面的解决方案
与其让每一辆车在事故瞬间做出孤立决策,不如构建一个更智能的交通生态系统:
第四,这个问题不应该只由工程师和车企来决定
伦理决策涉及社会基本价值观。
需要广泛的社会对话和民主协商。
立法者、伦理学家、工程师、车主、行人——所有利益相关者共同参与讨论,形成社会共识,并通过法规加以固化。
07 尾声:选择背后的人性
回到开头的场景。
你坐在那辆失控的自动驾驶汽车里,刹车失灵。
前方五个工人,右边岔路一个行人。
你希望算法怎么做?
也许你的答案是:
“我希望根本不会有这个场景出现。我希望这辆车在失控之前就已经检测到了刹车故障,并安全地靠边停车。我希望这条路有完善的智能基础设施,能够提前预警施工区域。我希望所有车辆都能互相通信,避免同时出现在这样危险的路段。
但如果你必须选择呢?
这个问题之所以让人痛苦,恰恰因为它触及了人性的核心:
我们不愿意主动伤害他人,但又无法承受眼睁睁看着更多人死去。
在相当长的时间里,自动驾驶汽车无法做到绝对安全。
它们会犯错,会面临两难,会做出让人无法理解的选择。
但在评判一个算法之前,也许我们应该先问问自己:
“作为人类驾驶员,我们在同样的情况下能做得更好吗?
统计数据显示,94%的交通事故与人为因素有关。
我们是否在用“完美标准”要求机器,却用“平均标准”要求自己?
智能驾驶的发展,不仅是技术的演进,更是我们对自身道德直觉的重新审视。
当我们将驾驶权交给机器,我们其实是在问自己一个更深刻的问题:
“我们想要一个怎样的未来?在那个未来里,技术应该遵循怎样的伦理准则?
这个问题的答案,不在代码里。
而在我们共同的讨论和选择中。
毕竟,最终要做出选择的,不是算法,而是我们。
如果这篇文章引发了你的思考,欢迎在评论区留下你的看法。
你愿意购买一辆在极端情况下可能“牺牲”你的自动驾驶汽车吗?