——AI时代的责任黑洞与“合法谋杀”
2023年10月,旧金山。
一名女子被一辆人类驾驶的汽车撞倒后抛向车道,一辆Cruise无人车迎面驶来,未能有效避让,撞上行人。
车辆随后停下,但系统将事故误判为“侧面碰撞”,于是启动了靠边停车程序,在行人已被卷入车底的情况下将其拖行约6米,造成重伤。
但那名被拖行的女性,没有办法去质问那个算法。那个算法,也没有办法对任何人解释,自己是怎么决定“侧面碰撞、靠边停车”的。
加州交管部门随即暂停了Cruise的无人驾驶许可证,CEO等多名高管随之辞职。
车停了。责任,还在扯皮。
拉杆在谁手里?
站在一个道岔旁,眼看一辆刹车失灵的电车冲向五个人。你手边有一根拉杆,扳下去,电车会转向另一条轨道,但会撞死另一个人。
拉,还是不拉?
重点在于:那根拉杆在你手里。你要做决定,你要承担后果。你是道德主体。这家餐厅要不要去?评分算法推荐的。这条新闻值不值得看?平台替你筛选了。贷款批不批?系统三秒钟告诉你结果。坐上那辆车,去不去踩刹车?FSD替你判断。
每一次,我们都觉得很方便。
每一次,拉杆就往远处挪了一点。
直到有一天,你回头一看——那个位置,空了。
虚假的拉杆
科技巨头保留那根“虚假的拉杆”,不是为了让你控制机器,而是为了出事时,指着那份长达50页、你连看都没看就点了“同意”的协议说:责任在你,不在我们。
说明书里写着:“本功能为辅助驾驶,驾驶员必须随时准备接管。”法院据此裁定:司机分心,与厂家无关。
你以为在坐自动驾驶,其实只是个辅助功能。拉杆还在你手里?不过是摆设。机器做决定,责任你来背。
出了事,算谁的?
2025年工信部新规:L3级自动驾驶下,系统正常运行时出事,车企负主要责任。L2是你开车、系统帮你;L3是系统开车、你看着。不是车企全包,而是“混合责任”:系统正常运行时车企担责,但如果系统请求接管而驾驶员没反应,或者驾驶员主动干预导致事故,责任仍归驾驶员。
但问题没解决。L3只能在高速用,城市道路不行。出了事,车上的数据记录器虽然存了档,但用户想看原始日志,往往得走法律途径,没那么容易。责任划分需要法院依据EDR数据来判定。
法律专家指出:自动驾驶颠覆了传统的驾驶责任模式。在有人类驾驶的情况下,事故责任通常根据司机过错来认定。而在高度自动驾驶情境下,如果碰撞不可避免但算法选择了对某方更不利的方案,受害者能否起诉厂家“算法有过错”?当前法律还没有先例。没有先例,意味着你是第一个撞墙的人,等法律赶上来,你已经撞完了。
真正的“道德机器”在哪里
2016年,麻省理工做过一个著名实验,叫“道德机器”。
他们向全球数百万人提问:自动驾驶在无法避免碰撞时,应该优先保护谁?
覆盖233个国家地区、约4000万次决策的数据分析结果显示,全球受访者呈现出三项强烈的一致伦理偏好:优先保护人而非动物、优先保护更多的人、优先保护年轻人而非年长者。
但注意,这只是“我们希望机器怎么做”的调查。
真实的问题是:你买的那辆车,它的算法里,是按这个逻辑设定的吗?没有人告诉过你。
你坐进那辆车,系上安全带,觉得自己在驾驶它。但你不知道,那辆车在遭遇不可避免的碰撞时,会选择牺牲谁。
也许是路边的行人。也许是后座的老人。也许是你。
这个决定,是某几个工程师在某个下午,在某个封闭的会议室里,根据某种“奖励函数”,替你做好的。
你从来没有被问过。
怎么夺回那根拉杆?
夺回拉杆,不是叫你砸掉自动驾驶功能,也不是要回到人人手动换挡的年代。
AI确实可以让驾驶更安全——百度Apollo的数据显示,其无人车的实际出险率仅为人类司机的1/14。
技术本身不是问题。问题是:谁有权决定那个“奖励函数”里,命的价值怎么排序?这件事,不能只由程序员和CEO来决定。
至少得做到几件事:
我们需要在法律上确立“算法解释权”。如果系统是一个无法解释的“黑盒”,那它就不应该被允许应用在涉及人身安全和基本权利的领域。
还有,要引入“算法审计”。涉及公共安全的算法,得像财务审计一样,找第三方来查,不能自己当裁判又当运动员。最重要的一点是:决定AI价值观的那行代码,不能只由几个拿着高薪的程序员和追求利润的CEO在封闭的会议室里决定。涉及公共利益的AI规则,必须有社会学、伦理学、法学专家的介入,甚至需要公众的参与。拉杆的偏向,应该是社会共识的体现,而不是资本财报的延伸。想不通的地方
麻省理工的“道德机器”调查了全球数百万人,发现人类共识是:优先保护年轻人而非老人,优先保护守规矩的人而非闯红灯的,优先保护医生而非流浪汉。
这就是我们引以为傲的“共识”。
这种“共识”本身是不是一种残忍?
如果把它写进自动驾驶的代码,意味着什么?
老人和年轻人同时遇险,系统会毫不犹豫地选择碾压老人。系统会在零点几秒内扫描路人的衣着、行为甚至信用评分,决定谁更“值得”活。
我们害怕资本给生命标价。但如果把定价权交给大众投票,结果会不会是一场“多数人对少数人的合法谋杀”?
当算法由资本控制,是冷血算计;当算法由“人类偏好”控制,就成了被数学洗白的社会达尔文主义。
人间清醒金句
AI算得出碰撞的概率,却永远背不动一条人命的重量。
我们担心的不是AI失控,而是AI把人类内心最深处的自私和偏见,执行得太完美了。当人命变成代码里的“成本”,当道德变成算法里的“参数”,我们交出去的就不再是驾驶权,而是生而为人的豁免权。
当系统判定你的“社会价值”低于刹车片磨损成本的那一刻,丧钟就是为你敲响的。