自动驾驶的安全神话,又一次被撞碎了。
3月8日,一位加州车主在社交平台发布了一段行车记录仪视频。视频中,他的特斯拉Model 3在"完全自动驾驶"(FSD)模式下,径直冲过一个已经放下栏杆的铁路道口。车辆没有减速,没有避让,仿佛道口栏杆不存在。
这不是孤立事件。NBC新闻调查发现,社交媒体上已有超过40起类似报道,都是FSD在铁路道口发生故障。有些车辆甚至直接撞上正在下降的道口栏杆。
问题的根源在于FSD的训练数据。特斯拉依赖神经网络从海量视频中学习驾驶,但铁路道口的样本相对较少,导致AI难以准确识别这种特殊场景。不同于普通十字路口,铁路道口有独特的栏杆、信号灯和轨道,这些视觉特征对AI来说是"盲区"。
更令人担忧的是特斯拉的态度。公司官网的FSD说明中,并没有明确列出铁路道口作为需要人工接管的场景。许多车主并不知道,他们信任的"完全自动驾驶"在铁路道口实际上是"完全不能驾驶"。
这起事件再次提醒我们:自动驾驶技术的进步是渐进的,但安全事故的发生是突发的。在AI真正理解世界之前,"双手不离方向盘"不是建议,而是必须。
你还敢用FSD吗?
关注「小马看AI」,每天3分钟,掌握最新科技与AI动态。