2026年1月,一个美国科技从业者道格·富洛普,深夜乘坐Waymo回家,遭遇砸窗威胁,报警、打客服电话,得到的回复是“只要有人站在车旁,系统就不会驶离”。
于是,他和同伴在车里被困了整整6分钟,看着车外的人试图砸穿玻璃。
这不是治安案件报道,而是自动驾驶Robotaxi商业化路上最尴尬的安全悖论——当车辆的“安全逻辑”被恶意利用,它就从保护乘客的工具,变成了困住乘客的牢笼。
道格·富洛普的经历,把无人驾驶一直回避的问题摆上了台面:在极端情形下,谁来为“安全”做决定?
(参考阅读请点击:
《纽约对Waymo无人车说“不”:自动驾驶为何被关上大门?是技术不行,还是1901年法律?》)

道格·富洛普的遭遇,最讽刺的一点在于:Waymo的一切反应,恰恰是按照“安全第一”的逻辑运行的。
有人靠近,系统判断风险,决定不动;
有人砸窗,车门锁死,保护车内人员;
远程客服在线支持,但明确告知“不能人工驾驶车辆驶离”。
每一个环节单独看,似乎都无懈可击。
但组合在一起,却形成了一个令人窒息的“死循环”——车外的人在攻击,车内的人出不去,车也开不走,唯一能做的,就是等着袭击者自己离开。
这暴露了无人驾驶系统的一个根本性缺陷:它把“安全”定义得太窄了。
在算法眼里,静止不动、锁好车门,就是最安全的状态。
但在真实世界里,安全还包括“脱离危险环境”的能力。一个人类司机看到有人砸窗,第一反应是踩油门离开,哪怕轻微剐蹭也要先脱困。
但无人车没有这个“判断权”——它被设定为“谨慎优先”,却不知道在某些时刻,“果断离开”才是最谨慎的选择。
Waymo对远程协助的定位,在这次事件中也显露出了问题。
发言人强调“支持团队一直与乘客保持通话”,但通话能解决什么呢?给乘客心理安慰?帮他们报警?
这些当然有用,但在有人正在砸窗的6分钟里,乘客需要的不是安慰,而是有人能说一句“现在,把车开走”。
但Waymo的规则不允许这样。
公司在回应国会议员时明确表示:
远程协助人员提供的是建议,不会直接控制车辆;
车辆遇到模糊场景时主动发起请求,但系统可以接受建议,也可以拒绝。
这套机制的设计初衷,是为了防止远程误操作导致事故。
但在极端场景下,它等于把决策权交给了算法,而算法又无法理解“砸窗=生命威胁”这个级别的风险优先级。
这让我想起一个比喻:远程协助就像给无人车配了一个“教练”,教练在场边喊战术,但上不上场、怎么打,还得球员自己决定。
问题是,当球场上有人要揍你的时候,你需要的不是教练的指导,而是有人能立刻把你换下场。
道格·富洛普事件,只是旧金山Robotaxi“敌意史”的最新一章。
从2023年的Waymo“锥桶抗议”——把橙色交通锥放到车头上让车辆失能,到2024年的烧车、喷漆、围堵,再到如今的砸窗威胁,一个清晰的趋势正在显现:针对无人车的破坏行为,已经从“恶作剧”升级为“利用规则的系统性攻击”。
(参考阅读请点击:
《谷歌Waymo无人车开上铁轨,乘客弃车逃生:L4自动驾驶的“最后50米”到底卡在哪?》)

这些攻击者未必懂自动驾驶算法,但他们很快就摸清了无人车的“软肋”——它太听话了。
放个锥桶,它就停下;
有人靠近,它就不动;被围住了,它就等着。
这种“礼让”在99%的场景下是优点,但在那1%的恶意场景下,就成了可以被反向利用的弱点。
道格·富洛普最后说,除非Waymo改变政策,否则他会尽量避免夜间乘车。
这句话的分量很重——它意味着,一个原本是为了保护乘客而设计的安全逻辑,正在让部分乘客感到不安全。而一个让乘客感到“被困住”的服务,无论技术多先进,都很难真正赢得信任。
无人车要真正上路,需要的不仅是更精准的传感器、更聪明的算法,还需要一套能在极端情形下“打破规则”的决断机制——或者让人来决断,或者让算法学会在某些时刻,先脱困,再讲道理。