花三十万买一辆带"自动驾驶"功能的车,信了销售那句"这车能自己开"。某天下午打开智能辅助驾驶,绿灯起步,一切正常。七秒钟之后,车突然自己往右猛拐——压实线,撞上了旁边的车。方向盘自始至终没碰过。交警来了,认定书六个字:违规变道,全责。不服。找车企要后台数据,想证明是车自己撞的。车企的回复礼貌而干脆:不好意思,存储空间有限,那段数据被覆盖了。
这不是段子。2026年1月10日,青岛,周女士,理想L6 Pro。车自己撞的,数据"自己没了",责任全部落在一个连方向盘都没碰的人身上。如果这就是自动驾驶的法律归宿,那"自动驾驶"这四个字的含金量约等于一张彩票——开奖之前全是希望,开奖之后全是代价。 但换个方向看,故事又完全不一样了。2019年美国佛罗里达,一辆特斯拉Model S在Autopilot开启状态下撞上路边停放车辆,一死一重伤。驾驶员承认事发时在捡手机——分心了。按正常人的直觉,分心驾驶,司机全责,有什么好说的?但2025年8月陪审团给出的答案是:特斯拉赔2.43亿美元,其中2亿是惩罚性赔偿。陪审团的逻辑耐人寻味:Autopilot存在"技术缺陷",未能有效识别道路风险,系统的缺陷才是致死根源。驾驶员分心当然有错,但车企不能因为驾驶员犯了一个错就脱掉自己全部的干系。哪怕是最低级别的辅助驾驶,车企也不是天然免责的。两亿美金买的就是这句话。 一边是"车撞了人赔",一边是"人分心了车企赔"。两个极端之间,还夹着第三种魔幻场景——2026年3月31日晚九点,武汉三环线,近百辆百度"萝卜快跑"无人车同时瘫痪在城市主干道和高架桥上,车锁死、SOS失灵、乘客被困在晚高峰的车流里。这次连"人"都没有了,纯粹的机器故障。没有驾驶员可以责备,没有分心驾驶可供辩解,责任百分之百落在运营方头上——但后果也百分之百地蔓延到了每一个被困的市民。
L2出事,驾驶员赔。没驾驶员的时候,车企赔。那中间那个灰色地带呢——车在开、人也在"准备开"的L3?2026年7月1日,公安部《智能网联汽车道路测试与示范应用安全通行规范》正式施行,中国第一部自动驾驶"交规"上线。L3被推到了法律面前。而这三个案子恰好构成了一道完整的坐标系:横轴是"人开了多少",纵轴是"谁赔了多少",L3正好落在两条线的交叉点上——一个没有人真正知道答案的位置。
一、接管悖论
L3的核心定义是:在特定条件下,车可以自己开,人可以不用时刻盯着路。但必须"随时准备接管"。
这句话听起来没毛病,拆开看全是毛病。
一个正常人,被告知"不用操心,车自己会开",接下来会发生什么?刷手机、回消息、看视频、打个盹。这不是人的问题——这是人类在"不需要注意力"的情境下的本能反应。心理学家把这叫"自动化自满"(automation complacency):系统越可靠,人越松懈。
但系统不是万能的。它会在自己搞不定的时候发出接管请求:前方施工、突然闯入的行人、被夕阳"晃瞎"的激光雷达。新规里,L3的接管时间窗口大概是7到15秒。
7到15秒,听起来很长。但拆解一下人体反应链条:从注意力涣散状态被警报声唤醒,3到5秒。搞清楚现在车在哪儿、周围什么情况、系统为什么报警,5到10秒。做出正确的操作决策并执行,2到4秒。加起来,一个非专注状态下的驾驶员,从收到警报到安全接管,至少需要10到20秒。
系统给的时间,比人需要的时间短。这不是设计缺陷。这是物理定律。人类大脑从"关机"状态恢复到"全速运转",有硬性的生理极限。
所以L3的本质矛盾是这样:车能自己开的时候,人不需要集中注意力;车需要人的时候,人在生理上无法及时集中注意力。两个状态之间的时间差,就是事故发生的窗口。
这个矛盾,行业里叫"接管悖论"。它不是一个待解决的技术问题——L3诞生第一天起就有人指出这个问题。联合国欧洲经济委员会的UN R157法规,2021年就生效了,覆盖高速公路L3自动驾驶,但没有任何条款说明车企或供应商在致命事故中如何免于刑事责任。结果是什么?法规生效四年了,欧洲至今没有车企实际销售L3车辆。
在中国,这个悖论被公安部的新规推到了临界点。新规说:系统在获批的设计运行域(ODD)内激活且未发出接管请求时,事故责任由车企承担;系统已发出接管请求而驾驶员未响应,责任归驾驶员。
逻辑上很清晰。实际上呢?事故发生后,怎么证明接管请求到底发没发?发了几秒?驾驶员到底有没有足够的时间反应?驾驶员说"我没听到警报"——是系统没发,还是发了但音量不够,还是驾驶员戴着耳机没听到?
这些问题的答案,全在一件事上:数据。
二、数据即判决
在L3的世界里,法庭上的胜负不取决于律师的口才,取决于谁能拿出一份完整、可信、未被篡改的行车数据。
GB 44497-2024《智能网联汽车 自动驾驶数据记录系统》已经于2026年1月1日起强制实施。这部国标被称为"数据黑匣子"——所有具备自动驾驶功能的车辆,必须搭载符合标准的记录系统。碰撞及碰撞风险事件的数据不得覆盖,存储于非易失性芯片,通过信息安全测试防止篡改。
听起来很完美。但青岛周女士的案子,恰好发生在新国标生效后的第10天。理想汽车的回复是"车端存储空间有限,数据被覆盖了"。问题不在于有没有黑匣子,在于黑匣子的钥匙在谁手上。
目前,行车数据的存储、提取、解读,几乎全部由车企控制。驾驶员出了事故想调取数据,只能向车企申请。车企给什么数据、给多少数据、数据是否完整,驾驶员没有任何验证手段。法院要查数据,同样要依赖车企配合。如果车企说"数据灭失了",目前的法律框架下,缺乏有效的惩戒和验证机制。
这不是技术问题,是权力结构问题。在传统交通事故中,现场勘验、刹车痕迹、监控录像、目击证人,这些证据的生成和提取不依赖于任何一方当事人。但在L3事故中,唯一能还原真相的证据——系统运行数据——的生成、存储、解析,全部由潜在的责任方(车企)垄断。
用一句不太学术的话说:让被告保管关键证据。这个制度设计本身,就有天然的不公平。
当然,新规也在试图解决这个问题。GA/T 2388-2026要求数据记录覆盖车辆位置、速度、加速度、转向角度、感知结果、系统决策逻辑及驾驶员是否干预等五大类信息。更重要的是,新规要求"车违法、系统故障"的归责条款——在监管框架下,侵权责任主体已经开始向技术方转移。
但转移是一回事,落到地上是另一回事。当事故涉及的不只是几十万的修车费,而是人命的时候,责任转移会撞上一堵新的墙。
三、保险赔钱,但谁能替公司坐牢
商业世界对L3的态度是乐观的。2026年北京车展上,多数首发新车都支持L3。保险业也在跑步入场:平安产险等大型险企已经推出L3专属责任险产品,覆盖自动驾驶系统缺陷、软件更新风险、网络安全攻击等传统车险不保的风险。某新能源品牌L3车型的基础版责任险,年保费约8000元,比同级别燃油车高出60%。
赔付逻辑也在变。传统车险理赔是"定损为主":看现场、拍照、估维修费。L3车险变成了"溯源为主":还原事发时系统是否激活、是否在ODD内、是否发出接管请求、驾驶员是否响应。理赔员需要懂代码、懂传感器、懂软件版本迭代。保险公司的角色从"赔钱的人"变成了"技术侦探"。
但这些都还只是民事责任的游戏。
保险能赔修车费、医药费、死亡赔偿金。保险赔不了的是刑事责任。一个L3车辆在自动驾驶状态下撞死了一个人。交警勘查、数据分析、专家鉴定,结论是系统存在缺陷。按照新规,责任在车企。好了——接下来怎么办?
《刑法》第133条交通肇事罪,犯罪主体是"自然人"。死了一个人,负事故全部或主要责任,构成交通肇事罪。但"车企"不是自然人。把法定代表人抓了?把CTO抓了?把写那行出bug的代码的工程师抓了?现行刑法没有给这个场景预留答案。
这并非杞人忧天。特斯拉在佛罗里达被罚的2亿美元惩罚性赔偿,虽然在美国法律体系下是民事赔偿,但在实务中已经是陪审团对"技术缺陷导致死亡"的最严厉表态。在中国,如果同样的逻辑被应用到刑事追责中——认定某个具体的技术决策与死亡结果之间存在因果关系——那么追责的链条将直接指向产品研发过程中的具体个体。
汽车行业老专家朱西产教授说得直白:"在自动驾驶领域,一个法人怎么承担刑责现在没有说法。把法人代表抓了吗?不现实。"
中国《刑法》如果要让自动驾驶场景下的企业承担刑事责任,需要全国人大修改数个核心条款。这个立法周期,不是几个月的事,是几年的事。
四、跳过还是硬闯
行业里正在打一场路线战争。华为和小鹏主张跳过L3,直接从L2+进军L4。逻辑很直白:L3的"人机共驾"本质上不安全,商业上也划不来——既要投入巨资满足法规要求,又无法给消费者"放手不管"的体验。何小鹏在2026年两会上明确提出跳过复杂L3、直接为L4铺路。
对面站着的是奔驰和华为智选车体系(虽然华为内部有分歧)。奔驰已经在德国通过Drive Pilot系统实现了L3的合规上路,限定在高速公路、时速60公里以下。他们认为,只要把ODD限制得足够窄,L3是可以安全运行的。
两种路线,对应两种法治逻辑。
"跳过派"实际上是在说:L3的法律框架是建在沙滩上的。接管悖论不解决,事故责任划分就是伪命题。与其用一个注定充满争议的过渡方案制造大量的判例混乱,不如等技术真正成熟,一步到位实现责任主体与驾驶主体的统一。
"硬闯派"的逻辑则是:技术演进不能等法律完美了再走。先上路,出了案子,用判例来倒逼立法。德国的L3法案就是这么走过来的——先给奔驰发放上路许可,再在实践中磨合责任边界。
两种逻辑都有道理。但不妨看看"萝卜快跑"的100辆无人车集体瘫痪事件。那是L4级别——没有驾驶员,没有接管,纯粹的系统故障。当100辆车同时停在城市主干道上,车门锁死、SOS失效、乘客被困——这个场景里,谁是责任方?百度。这一点毫无争议。但没有驾驶员兜底,后果反而更严重:大范围交通瘫痪、公共安全风险、品牌信誉重创。
所以争论L3还是L4,可能都没抓住重点。真正的问题是:当一个系统替代了人的判断和操作,而法律的全部底层逻辑都是建立在"人做决定、人担责任"之上——这个根基不动,无论是L3还是L4,出了人命案子都会面临同一堵墙。
笔者想说
2026年7月1日施行的这部自动驾驶"交规",是法律对技术的第一次系统性回应。它做了能做的事:规定了灯光怎么打、车距怎么保持、数据怎么记录、责任怎么初步划分。它把过去几年靠"行业自律"和"PPT承诺"维持的自动驾驶,推进了强制合规的轨道。这一步走得很坚决。
但它解决不了的问题,恰恰是自动驾驶最深层的法律困境。
接管悖论不是法规条款能填平的——它根植于人类神经系统的物理极限。数据黑匣子建立了,但数据主权仍然掌握在车企手中——证据不对等的问题只是被推迟了,没有被解决。保险可以覆盖民事赔偿,但刑事责任归谁,在刑法层面连讨论的框架都还没有搭建起来。
这或许是人类法治史上最奇特的一次追赶。过去,法律总是在技术变了之后慢慢调整——有了汽车,才立交通法;有了互联网,才立法治网。但自动驾驶不一样。它不是"技术先行、法律跟上"的常规节奏。它是技术直接把法律的地基刨开了——法律的全部哲学前提——自由意志、主观过错、因果链条、责任主体——都在一台没有驾驶员的车上变得可疑。
武汉三环线上那100辆停摆的萝卜快跑,不是技术事故。是一道法治预考题。
系统能在一秒钟之内做出人类需要三秒钟才能做出的判断。但系统永远不会替人类回答那个问题——出了事,谁来承担。
本文仅代表作者个人观点,不构成法律意见
金易文 律师 | 上海市华诚律师事务所