你今天上班的路上,有没有见过特斯拉?
大概率见过。在中国,特斯拉的保有量已经超过 200 万辆。在美国,更是超过 320 万辆搭载了"完全自动驾驶"(FSD)功能。每天,无数人把自己的安全交给特斯拉的摄像头和算法。
但就在昨天,美国联邦汽车安全监管机构(NHTSA)发出了一个严重警告。
9 起事故。1 人死亡。2 人受伤。320 万辆车面临可能的召回。
而与此同时,马斯克正在准备下个月投产一款没有方向盘、没有踏板的新车。
这不是科幻电影。这是正在发生的现实。

美国国家公路交通安全管理局(NHTSA)3 月 18 日发布备忘录,宣布将对特斯拉 FSD 系统的调查升级为"工程分析"——这是启动强制召回前的必经步骤。
这意味着什么?320 万辆特斯拉可能面临史上最大规模的软件召回。
事情的起因是 9 起触目惊心的事故:
在大雾中,FSD 没能识别前方车辆,直到撞上去的那一刻才发出警告。在强烈阳光眩光下,摄像头"失明"了,但系统没有通知驾驶员接管。在扬尘路段,车辆径直开了过去,仿佛前方什么都没有。
NHTSA 的调查发现了一个核心问题:当能见度下降时,特斯拉的纯摄像头系统无法可靠地识别道路危险,而且不会及时提醒驾驶员。
更要命的是,在多起事故中,FSD 系统"从头到尾都没有探测到前方车辆"。

这是特斯拉与整个自动驾驶行业最根本的分歧。
几乎所有竞争对手——Waymo(Google)、Cruise(GM)、百度 Apollo——都在自动驾驶系统中使用**摄像头 + 激光雷达(LiDAR)**的组合方案。激光雷达就像给车装了一双"超声波眼睛",在雨雾、夜间、强光等摄像头失灵的场景下依然能精准感知环境。
但马斯克一直坚持:"激光雷达是拐杖,纯视觉方案才是正确路线。"
他的逻辑是:人类只用两只眼睛就能开车,AI 用八颗摄像头当然也行。而且激光雷达太贵、太笨重,会推高车价。
问题是:人类的眼睛背后有一颗经过数百万年进化的大脑。AI 的算法跟那颗大脑之间,还差着十万八千里。
NHTSA 这次调查的核心发现恰恰证明了这一点:在雾、尘、眩光等场景下,纯摄像头方案会"失明"——而系统甚至不知道自己看不见了。
这就像一个人闭着眼睛开车,却以为自己的眼睛是睁开的。
马斯克的豪赌:320 万辆车出事故,他的回应是造没方向盘的车
这件事最让人困惑的地方在于时机。
就在监管机构升级调查的同时,特斯拉正在做三件事:
第一,下个月开始量产 Cybercab。 这是一款完全没有方向盘和踏板的机器人出租车。没有方向盘意味着——一旦系统出了问题,车内的乘客什么都做不了。
第二,今年在多个美国城市推出无人出租车服务。 没有安全员,车里只有乘客。
第三,马斯克承诺把现有的数百万辆特斯拉变成"可出租的机器人出租车"。 你上班的时候,你的特斯拉自己出去跑出租赚钱。
一边是 320 万辆车因为"看不清路"被调查,另一边是"干脆连方向盘都不要了"——这种反差,让人不得不问一个问题:
马斯克是看到了我们看不到的未来,还是在用消费者的安全做赌注?
特斯拉的辩护是:三起新版 FSD 软件能避免的事故中,已经通过 OTA(空中升级)修复了问题。换句话说,特斯拉认为软件在不断进步,现在的问题不代表未来的水平。
但监管机构要问的是:"不断进步"的过程中,谁来为那些事故中的死伤者买单?

特斯拉的"名字游戏":从"完全自动驾驶"到"完全自动驾驶(有人监督)"
有一个细节值得玩味。
特斯拉曾经把这套系统叫做 "Full Self-Driving"(完全自动驾驶)。这个名字暗示着:你可以完全放手,让车自己开。
但在监管压力和事故频发下,特斯拉把名字改成了 "Full Self-Driving (Supervised)"——"完全自动驾驶(有人监督)"。
一个括号,四个字,含义天差地别。
"完全自动驾驶"告诉你:放心,交给 AI。"完全自动驾驶(有人监督)"告诉你:你得盯着,出事了还是你的责任。
但问题是——有多少车主真的理解了这个括号的含义?
当你花了 1.5 万美元(约 10 万人民币)购买 FSD 功能,当你看到"完全自动驾驶"五个大字,当车辆在高速上平稳行驶了一个小时没出任何问题——你真的还会时刻保持警惕吗?
这就是所谓的**"自动化悖论":系统越可靠,人类越容易放松警惕。而当系统突然失灵的那一刻,恰恰是人类反应最慢的时候。**
"最危险的不是自动驾驶出错,而是你以为它不会出错。"

第一:如果你是特斯拉车主。
不要因为系统运行良好就完全信任它。NHTSA 的调查显示,FSD 在特定天气条件下可能"看不见"前方障碍物。在雾天、强光、扬尘环境中,请格外小心,随时准备接管。OTA 升级很重要——确保你的车辆软件保持最新版本。
第二:如果你在考虑买自动驾驶汽车。
了解"辅助驾驶"和"自动驾驶"的区别。目前市面上所有的"自动驾驶"功能,本质上都是"辅助驾驶"——需要你随时准备接管。不要被营销话术误导。买的是辅助,不是放手。
第三:如果你是普通的路上行人和其他车主。
自动驾驶汽车的安全不只是车主的事。如果一辆特斯拉的 FSD 在雾天"失明"了,受害者可能是你。关注自动驾驶监管政策的进展,因为它关系到每一个道路使用者的安全。

特斯拉的困境,其实是整个自动驾驶行业的缩影。
Waymo 在旧金山运营的无人出租车服务,已经累计完成了数百万次付费行程,安全记录远优于人类驾驶员。但即便如此,公众对自动驾驶的信任度依然不高——只有 23% 的美国人表示完全信任自动驾驶技术。
原因很简单:人类可以接受人类犯错,但很难接受机器犯错。 一个人类司机每天在全球制造数万起交通事故,我们习以为常。但一辆自动驾驶汽车出了一起事故,就能上头条。
这不是因为人们不理性——而是因为机器犯错的性质不同。人类犯错是随机的,机器犯错是系统性的。一辆特斯拉在雾天看不见前车,意味着所有 320 万辆搭载同样系统的特斯拉在雾天都可能看不见前车。
这才是 NHTSA 升级调查的真正原因——不是因为 9 起事故太多,而是因为这 9 起事故可能代表着 320 万辆车共同的隐患。
"自动驾驶最难跨越的障碍不是技术,而是信任。而信任一旦失去,比任何算法都难修复。"
马斯克说过一句著名的话:"如果你不害怕,你就不够了解它。"
他说的是火箭,但这句话用在自动驾驶上同样适用。
自动驾驶是未来吗?很可能是。它最终会比人类驾驶更安全吗?也很可能。
但"很可能"和"现在就是"之间,隔着的是一条条人命、一次次事故调查、一轮轮公众信任的考验。
在这条通往未来的路上,我们需要的不是盲目的乐观,也不是恐惧式的反对,而是清醒的认知——知道技术的能力边界在哪里,知道什么时候该信任机器,什么时候该握紧方向盘。
至少在今天,方向盘还不应该消失。
"技术可以进步,法规可以完善,但生命不能重来。在通往无人驾驶的路上,最不该被无视的,是坐在车里的人。"
你怎么看特斯拉的"纯视觉"路线?你信任自动驾驶吗?评论区聊聊。
觉得有用?点个"在看"让更多人看到,或者转发给那个刚买了特斯拉的朋友。