编制说明: 本报告基于NHTSA、NTSB公开调查数据、各公司官方声明及主流媒体报道,收录2025年1月至2026年3月间全球范围内具有代表性、引发监管行动或行业讨论的重大自动驾驶相关事故,按影响力综合排序。涵盖L2辅助驾驶系统(ADAS)与L4完全自动驾驶系统(ADS)两类事件。
NO.1 特斯拉FSD陪审团裁定赔偿2.43亿美元
📅 判决2025年8月 | 📍 佛罗里达州 | 🏷️ L2 Autopilot | ☠️ 死亡1人,重伤1人
事故经过:2019年4月,一辆特斯拉Model S开启Autopilot后,以约100 km/h速度闯过停车标志和红灯,撞上路边停靠的SUV,22岁的Naibel Benavides当场死亡,其男友重伤。驾驶员在事发前弯腰捡手机,完全未接管车辆。
判决意义:2025年8月,迈阿密联邦陪审团裁定特斯拉承担33%责任,赔偿约2.43亿美元(含2亿美元惩罚性赔偿)—— 这是特斯拉Autopilot相关案件首次进入联邦陪审团审判并判原告胜诉。特斯拉曾拒绝6000万美元和解报价,最终代价是其4倍。2026年2月,联邦法官驳回特斯拉71页的判决推翻申请,维持原判。
深度解析:
- 陪审团认定Autopilot的设计缺陷和不充分警告共同促成了事故
- 判决将L2系统"驾驶员负全责"的行业默认逻辑彻底打碎
- 同期,加州法院裁定"Full Self-Driving"命名虚假,特斯拉被迫放弃沿用近十年的"Autopilot"品牌名,增加了更多的限定词(如 Supervised)或在特定市场调整。
NO.2 特斯拉Cybertruck FSD高速撞护栏
📅 2025年8月18日 | 📍 美国德克萨斯州休斯顿 | 🏷️ L2 FSD | 🤕 人员受伤
事故经过:车主Justine Saint Amour驾驶Cybertruck开启FSD行驶于69号Eastex高速,在Y形立交路口,系统未识别弯道拓扑结构,径直向混凝土护栏驶去。车主紧急接管但已过晚,车辆撞上护栏。
深度解析:
- 典型的SOTIF 危险场景,Y形立交边缘的拓扑结构超出训练数据覆盖
NO.3 小米SU7高速撞护栏致三人死亡
📅 2025年3月29日 | 📍 中国安徽省铜陵 | 🏷️ L2辅助驾驶 | ☠️ 死亡3人
事故经过:夜间22:44,一辆标准版小米SU7在皖赣高速上以116 km/h行驶,NOA(领航辅助驾驶)系统激活。车辆进入施工区域,系统发出障碍物预警并开始减速,但驾驶员仅有不到2秒的接管反应窗口。接管后车辆以97 km/h的高速冲撞混凝土护栏,随即起火,三名女大学生全部遇难。官方随后回应称其符合标准碰撞解锁逻辑,目前监管机构尚在核实电路完整性。
深度解析:
- 初步分析显示,该事故可能涉及施工区域临时交通设施识别困难、驾驶员接管延迟等多重因素;具体技术原因仍需监管机构调查确认,现有公开信息尚不足以对感知方案作出最终归因
- 值得关注的是,标准版SU7的感知配置与施工区临时障碍物(如水马)的可识别性关系,是调查的核心问题之一,属于SOTIF框架下区域2/3边界场景的典型争议点
- 事故触发导致小米公司市值在后两个交易日蒸发逾1,200亿港元
- 监管机构随后禁止车企在广告中使用"智能驾驶""自动驾驶"等夸大性宣传词汇
监管后果:国家市场监督总局启动调查;交通运输部加强对L2系统的认证审查;全国多地交管部门发布慎用辅助驾驶警示。
NO.4 Waymo机器人出租车撞伤小学附近儿童
📅 2026年1月23日 | 📍 美国加州圣莫尼卡 | 🏷️ L4 ADS | 🤕 儿童轻伤
事故经过上午上学高峰期,Waymo无人驾驶出租车在圣莫尼卡Grant小学附近行驶,一名儿童从路边违规停靠的SUV后突然跑出横穿马路。Waymo车辆紧急制动,从约27 km/h减速至不足10 km/h,但仍与儿童发生碰撞,儿童受轻伤后自行站起。
深度解析:
- NHTSA和NTSB同步开启调查,重点检查ADS系统在学校区域是否执行了"更高安全标准"
- Waymo称仿真结果显示"警觉的人类司机在同等场景下也无法避免碰撞",但监管机构对此存疑
- 加州Teamsters工会随即呼吁CPUC无限期吊销Waymo在加州的运营牌照
- NTSB初步报告(2026年3月)认定Waymo无鲁莽驾驶行为,但调查仍在持续
NO.5 Waymo机器人出租车连续违规闯越停靠校车(20次+)
📅 2025年8月—2026年1月 | 📍 奥斯汀 & 乔治亚州亚特兰大 | 🏷️ L4 ADS | 无伤亡
事故经过:根据奥斯汀独立学区公开记录,Waymo车辆被记录到至少20次在红灯闪烁、停车臂展开时违规超越停靠中的校车,全程有学生正在上下车。亚特兰大公立学校另记录6起类似事件。部分违规发生在Waymo声称已通过软件更新修复问题之后。尤为引人关注的是:2026年1月12日一起事故中,是Waymo的远程人工操作员错误下达了"通行"指令,而非自动系统失误——暴露出"人在环"监控体系的失效。
深度解析:
- Waymo已召回3,067辆第五代ADS车辆进行软件更新,但问题在召回后仍未完全解决
- 奥斯汀学区警告:"如果是人类司机违规20次,驾照早已被吊销"
- Waymo拒绝在上下学时段暂停运营,坚持认为其整体安全记录优于人类
- 此事件令Waymo的"比人类更安全"核心叙事首次遭到严肃的公共质疑
监管后果:NHTSA、NTSB双线调查;国会就ADS安全监管举行听证;Waymo首席安全官被传唤作证时承认使用境外远程操作员,引发额外争议。
NO.6 特斯拉奥斯汀Robotaxi:14起事故,事故率是人类4倍
📅 2025年6月—2026年1月 | 📍 美国德州奥斯汀 | 🏷️ L4 Robotaxi(含安全员)
系列事故概况:特斯拉Robotaxi服务自2025年6月在奥斯汀启动,至2026年1月共发生14起事故,主要类型包括:
数据对比:
⚠️ 统计口径说明: 不同系统的事故定义标准、ODD范围、运营道路类型均存在差异(如特斯拉Robotaxi运营场景集中于奥斯汀城区,Waymo覆盖场景更广),跨系统绝对数值比较需谨慎解读,上表数据仅供参考。
深度解析:
- 特斯拉将全部NHTSA事故报告的叙述栏以"机密商业信息"不公开,是行业内唯一如此操作的公司
- 14起事故均发生于安全员随车阶段(2026年1月下旬特斯拉开始测试无安全员运营,恰在同月记录4起新事故之后)
- 事故率对比:以特斯拉自己发布的安全报告(人类司机每229,000英里一次轻微碰撞)为基准,Robotaxi车队约为人类的4倍;若以NHTSA警方记录事故率(每500,000英里)为基准,则高达约9倍——"4倍"是最保守的估算,且基准来自特斯拉自己
NO.7 Tesla Model Y FSD撞击活跃警察封锁线
📅 2025年 | 📍 美国加州 | 🏷️ L2 FSD
事故经过:一辆开启FSD的特斯拉Model Y驶入正在执法的警察现场,接近趴在地上的嫌疑人时,现场警察大声呼喊指令,车辆最终停下。此事件被现场执法摄像机记录,并经法律机构引用为自动驾驶对紧急执法场景响应不足的典型案例。
深度解析:
- 警示FSD在"动态执法封锁"等非结构化场景下的ODD边界问题
- 属于SOTIF区域2已知危险场景,但FSD未能可靠识别
NO.8 Waymo May 2025软件召回:链条护栏碰撞风险
📅 2025年5月 | 📍 美国多城市 | 🏷️ L4 ADS | 无伤亡
事故经过:Waymo主动向NHTSA申报软件缺陷:1,212辆第五代ADS车辆存在可能与道路护栏、链条门等低矮障碍物发生低速碰撞的软件问题,起因是系统对"部分遮挡的低矮道路边界"感知能力不足。
深度解析:
- Waymo的主动召回机制值得肯定——在事故发生前主动识别并申报系统缺陷
- 同年12月Waymo又针对校车违规问题召回3,067辆车,暴露出召回修复的有效性存疑
NO.9 Tesla FSD交通违规行为:NHTSA PE25-012调查
📅 2025年10月7日开启 | 📍 美国多州 | 🏷️ L2 FSD
调查:PE25-012 交通违规行为(2025年10月7日开启)。NHTSA在2025年10月开启第二条独立调查线,聚焦FSD执行构成交通违法的驾驶动作,涵盖约288万辆FSD搭载车辆:
- 至少80起交通违规事件(2025年12月数据),含62份车主投诉、14份特斯拉自报、4份媒体报道
- 主要违规类型:闯红灯、驶入对向车道、在限行路口执行违规转弯
深度解析:
- PE25-012则属于SOTIF区域2场景,已识别但尚未充分解决的已知风险
- 特斯拉迟报事故的问题(部分事故在发生后数月才上报NHTSA)在调查中被重点关注,NHTSA已于2025年8月就此单独开启合规性调查。
NO.10 Zoox机器人巴士旧金山首发事故
📅 2025年11月 | 📍 美国加州旧金山 | 🏷️ L4 ADS | 🤕 轻微
事故经过:亚马逊旗下Zoox于2025年11月正式向公众推出其专用机器人巴士服务(旧金山)—— 这是全球首款无方向盘、无制动踏板的专用自动驾驶乘用巴士商业运营。服务推出后数周内,NHTSA数据库出现相关低速事故报告,引发媒体关注。
深度解析:
- 作为全球首款无传统驾控布局的商用ADS巴士,Zoox的事故率和透明度将成为行业基准参照
- 目前Zoox累计事故报告量在ADS公司中最低(78起,统计至2025年11月),但其运营里程基数也最小
🔑 跨事故共性分析
1. "L2名,L4实"的叙事悖论:小米SU7、特斯拉Cybertruck、Tesla Model Y——三大死亡/严重伤亡事故全部来自L2系统。品牌命名(NOA、FSD、Autopilot)与实际能力之间的鸿沟,是事故的元凶之一,不是技术,是叙事。
2. 施工区/临时障碍物是共同盲区:小米SU7(施工区水马)、Cybertruck(Y形立交边缘)、Tesla低能见度系列——不同品牌、不同国家,同一类型的场景反复击穿感知系统。这是SOTIF区域3的典型特征:未被充分覆盖的边界场景。
3. 透明度是真正的分水岭:Waymo主动召回、完整报告、次日公开声明;透明度的差异,最终肯定会体现在监管机构的信任程度和公众的接受度上。
4. 速度与验证之间的永恒张力:从Zoox的首发事故到Waymo的校车违规,从小米召回到特斯拉的2.43亿判决——2025年是自动驾驶商业化加速的元年,也是安全债开始集中到期的元年。
数据来源:NHTSA Standing General Order事故数据库、NTSB调查报告、各公司官方声明、Electrek、TechCrunch、CNBC、Bloomberg、Fortune、CarNewsChina、TechNode等