2018年亚利桑那州那个夜晚,一辆Uber自动驾驶测试车撞死了过马路的Elaine Herzberg。车上的安全员当时在看《美国好声音》。事后调查报告显示,系统其实早就识别到了障碍物,但紧急制动功能被关闭了——因为频繁制动会影响乘坐体验。
这个案子最后怎么判的?安全员被定过失杀人罪,Uber免于刑事起诉。也就是说,机器犯了错,背锅的是人。
我提这个陈年旧案,是因为最近看到特斯拉FSD在全球各地被监管围堵的新闻,突然觉得——八年过去了,我们连"出了事谁负责"这个最基本的问题都没解决。
而特斯拉的FSD,正在把这个问题从"如果出了事"变成"什么时候出事"。
一、名字比技术更危险
先聊一个我觉得被严重低估的争议点:FSD的全称是Full Self-Driving——全自动驾驶。
但实际使用中,驾驶员必须手扶方向盘、眼盯路面、随时准备接管。
你觉得这两个东西是一回事吗?
瑞典交通局的审查员在内部邮件里直接点了出来:这个名字有误导消费者的风险。芬兰的官员更直白,他们问的是——你真要在冰天雪地里让司机脱手?
这不是咬文嚼字。命名本身就是一种权力博弈。
想想2016年Tesla Autopilot致死案。司机Joshua Brown把Model S的"自动辅助驾驶"当成了真正的自动驾驶,在高速上开着Autopilot看《哈利·波特》,结果一头撞进了横穿的白色卡车拖车底下——因为系统无法识别白色背景下的白色物体。
事后特斯拉悄悄把官网上的"autopilot"相关描述改了,但FSD的名字一直没动。
这就好比一家餐厅给一道菜取名叫"绝对安全",然后食客吃坏了肚子,餐厅说"你没看菜单下面那行小字啊"。
消费者信了名字,监管要负责任,出了事驾驶员背锅。这三方之间,没有一方是真正被保护的那一个。
二、同一个系统,不同的世界
再说一个让技术人抓狂的现实:一套代码,在不同国家的命运完全不同。
荷兰车辆管理局做了一轮大规模路测——耗时大约一年半,跑了几百万公里,涵盖封闭场地和真实道路。最终结论是:FSD Supervised能对道路安全做出积极贡献,于是发了通行证。
但北欧几国看完之后的反应是:你跑的数据,跟我这儿的路况有什么关系?
为什么?因为荷兰和芬兰的路况差异,比北京和哈尔滨的冬天还大。
芬兰官员质疑的核心就两个:结冰路面和驼鹿。这两样东西在荷兰几乎不存在。你在阿姆斯特丹的平原上跑得好好的算法,到了芬兰北部零下二十度的冰面上,传感器和制动逻辑完全是另一回事。
这其实暴露了一个更深层的问题:自动驾驶的测试数据是不具备跨区域可比性的。荷兰说"我跑了一百多万公里没问题",这个结论在芬兰的监管者看来,跟"我在三亚学会了游泳,所以能在北极冬泳"差不多。
这不只是特斯拉面临的挑战。你看通用汽车的Cruise,在旧金山跑得好好的,到了凤凰城就因为不同的路况和交通规则出了岔子,最终被加州DMV吊销了运营许可。一个城市的数据,不代表另一个城市的安全。
三、民意倒逼监管?你想多了
监管机构收到一堆催批信后是什么反应?不是感动,是头疼。
事情是这样的。马斯克在社交平台上喊话,让全球的特斯拉车主去给各国监管部门写信施压。不少车主真去了,措辞相当激烈,有人甚至把不批准等同于"见死不救"。
你猜北欧的官员们怎么看这事?挪威交通局的回应翻译过来大概是:我们不得不花大量时间去处理这些被误导的来信。特斯拉的欧盟经理后来还专门去道了歉,承认这类投诉对审批流程没什么帮助。
这就是对"民意可以倒逼政策"这个浪漫幻想的当头一棒。
监管机构的底层逻辑跟科技公司完全不同。科技公司的逻辑是"快速迭代,出了bug再修"。监管的逻辑是"宁可慢,不能错"——因为科技公司修bug的代价是一次OTA更新,监管"犯错"的代价可能是一条人命,而这条人命会算在批准者的头上。
让消费者去催监管,等于让不懂手术风险的人去催医生"赶紧开刀"。医生的第一反应不会是"看来这手术很简单",而是"这人疯了"。
科技行业的"用户至上"逻辑,在监管面前是不管用的。因为监管服务的不是用户,而是公共安全。
四、谁在重新写游戏规则
有意思的是,不同国家面对这个难题,选择了完全不同的解法。
新加坡的做法最值得研究。人家没有盯着某个产品一个个审批,而是直接发起了一场立法咨询,要重新写整个自动驾驶的法律框架。其中最关键的一个思路是"无过错补偿"——出了事先赔受害者,别等责任扯清楚了再给钱。这个设计非常聪明,它避开了一个几乎无解的难题:技术故障、算法缺陷、运营失误,到底谁的锅?与其花几年打官司判定责任,不如先把人救了再说。
当然,配套的问题也得解决:技术供应商和车队运营商怎么分摊成本?数据被黑客攻击了算谁的?人类司机和系统在交接控制权的那几秒钟里出了事怎么判?新加坡把这些全拉进了咨询范围。
这才是真正解决问题的思路。不跟产品较劲,跟规则较劲。
对比之下,中国的做法更侧重数据主权层面。特斯拉在国内建了数据中心、找了百度合作地图、搞了本地AI训练中心,数据不出境、训练在国内完成。这三板斧砍下来,依然只能用"辅助驾驶"的标识。背后的逻辑很清晰:你可以来,但数据必须留下,功能必须受控。
而在日本,几万辆特斯拉在排队等一个OTA激活。左行规则、密集的人行横道、老城区那些没有标线的窄路——这些对算法来说不是小修小补,而是要重新训练一整套感知逻辑。
五、美国自己家的规矩也变了
最有讽刺意味的变化发生在美国本土。
得州通过了一项针对L4级以上自动驾驶商业运营的新规。特斯拉的FSD目前是L2级,按说不受影响。但别忘了,特斯拉在奥斯汀已经开始跑Robotaxi了,有的Model Y车里已经没安全员了,Cybercab也开始量产了。
一旦这些车开始收费载客,性质就变了。得州新规里有一个细节特别有意思:运营公司必须提交一份紧急响应交互计划,告诉警察和消防员怎么跟一辆没有人的车打交道。
你细品这句话。警察培训了这么多年怎么处理交通事故,现在要重新学"怎么跟一台机器对话"。这不只是法律问题,是社会治理问题。
加州走得更远。交警现在可以直接给无人车开罚单,罚单发给制造商。以前一辆无人驾驶的汽车闯了红灯,警察拦下来发现驾驶座是空的——现在不用拦了,直接记在制造商头上。
从法律上讲,这意味着制造商被等同于驾驶员。这个身份转换的意义,不亚于FSD技术本身的突破。
六、问题从来不是技术够不够好
我从业这些年,听技术圈的人说过最多的话就是:"我们的算法已经足够安全了,是监管太保守。"
但安全监管从来不是"算法够不够好"的问题。它是一个社会愿意承担多少"未知的风险"的问题。
每次自动驾驶致死事故发生后,调查都会发现一个问题:不是技术完全没识别到危险,而是系统的设计选择让它忽略了危险。Uber那个案子是因为紧急制动被关闭了。Tesla Autopilot那个案子是因为系统无法区分白色卡车和天空。
监管要面对的不是"这台机器聪不聪明",而是"这台机器在什么情况下会变笨,以及变笨的代价由谁来付"。
所以你看,FSD在全球碰到的阻力,表面上是各国在"卡"特斯拉,实际上是整个社会在面对一个更根本的选择:
我们要让技术跑多快,才能既享受红利又不至于翻车?
这个问题,没有任何一段代码能回答。
你觉得自动驾驶出了事故,责任应该在谁?制造商、车主、还是算法?评论区聊聊。