那天是个再普通不过的周日,我开着那辆熟悉的Model X,送儿子去参加童子军活动。这条路线我闭着眼都能开,弯弯曲曲的住宅区小道,两边都是老邻居的房子,平时连红绿灯都少见。车里放着轻音乐,FSD模式开着,一切跟往常一样顺滑。
说真的,我以前挺谨慎的,刚买这车的时候只敢在高速上用这个辅助驾驶,觉得路宽、标线清楚,车流也规律。后来试过几次城市路况,发现它处理得挺稳,慢慢就放松了警惕,甚至有点依赖它。那种感觉很微妙,就像有个老司机坐在副驾帮你盯着,你只要偶尔扶一下方向盘就行。
结果就在那个不起眼的右转弯,事情突然不对劲了。车子好像突然迷了路,方向盘猛地抖了一下,速度也跟着降下来。我本能地伸手去握,但已经来不及了。砰的一声,车头结结实实撞上了路边的混凝土墙。整个车头都废了,安全气囊弹出来,我头晕眼花,脖子疼得要命,脑袋嗡嗡作响。好在后座的儿子一点事没有,只是吓了一跳。
事后我坐在路边缓了好久,脑子里乱糟糟的。我是做技术的,以前在Uber管过自动驾驶团队,带过安全驾驶员培训,教他们怎么在系统出错时迅速接手。我在任那两年,我们的测试车没出过一次伤人事故。可现在,我自己成了事故的主角,而且是在自己最熟悉的路上,用着号称最先进的辅助驾驶。
更让我心里发凉的是责任归属。交警和保险单上写的都是我的名字,不是特斯拉。法律上,FSD只是个二级辅助系统,不管它怎么宣传,出了事都得驾驶员扛着。哪怕系统明显在关键时刻掉了链子,你也很难证明它该负多少责任。
还有那些数据问题。车一直在默默记录我的手放哪儿、眼睛看哪儿、反应有多快。出事后,特斯拉拿这些数据分析说我没及时接管。可我想查自己的行车数据,却只拿到一堆零碎片段。想起几年前佛罗里达那个致命事故,家属费尽周折找黑客从车里芯片恢复关键记录,特斯拉却说数据早没了。这种不对等的局面,让人很无力。
我琢磨了很久,发现问题的根子在于这种“监督式自动驾驶”的设计本身就有矛盾。你想啊,如果系统完全不可靠,人肯定不敢撒手;要是真完美了,又何必需要人盯着?偏偏现在的系统卡在中间——大部分时候表现很好,偶尔犯浑。这种“九成九靠谱”的状态最危险,它会悄悄改变人的心态。
心理学上有个词叫“警觉性衰减”,说的就是这种情况。长期看着一个几乎不出错的机器干活,人会不知不觉松懈下来。就像我,开了几个月FSD,早就习惯了它的节奏,甚至会在某些路段走神想别的事。等它突然出问题,你得在一秒钟内从放松状态切回紧张状态,还要克服身体对方向盘的生疏感,这几乎是不可能完成的任务。
美国公路安全保险协会做过研究,用自适应巡航一个月后,司机看手机的概率翻了六倍还多。特斯拉虽然反复提醒别太相信系统,但它的表现又实在太流畅了,99%的时间都在让你放心,剩下的1%才是致命的。这种反差,很容易让人掉进陷阱。
我想起2018年那起山景城事故,那位苹果工程师的车在撞上隔离带前足足有6秒预警时间,但他全程没碰方向盘。还有亚利桑那州Uber那次,系统提前5.6秒发现了行人,安全驾驶员却直到最后一秒才抬头。这些例子都在说明同一个问题:人类不是随时待命的机器人,我们的反应会被习惯和信任拖垮。
这次撞车,我其实反应算快的了。日志显示我确实打了方向盘,但距离碰撞只剩一秒,身体根本来不及做出有效调整。那一秒里,我脑子里闪过的全是平时FSD平稳带我过弯的画面,那种肌肉记忆般的信任反而害了我。
特斯拉这套模式,本质上是在玩心理游戏。先用流畅的体验赢得你的好感,再用长期稳定的表现让你放松警惕,等你真的出事了,再用一纸用户协议把责任推干净。没出事的时候,它是科技先锋;一出事,你就成了全责的司机。
有意思的是,我最近注意到比亚迪的做法不太一样。去年他们宣布,自动泊车如果惹了祸,由厂家负责,不影响车主记录和保险。虽然目前案例不多,但这种态度说明了一个问题:责任不一定非得全压在消费者身上。车企完全可以通过技术手段和保险机制分担风险,而不是把用户当小白鼠。
回头看看我的经历,其实不是要全盘否定辅助驾驶。高速上用它确实轻松不少,复杂路况也有帮助。但我们必须认清它的本质——它只是个高级工具,不是真正的司机。任何时候,你的注意力都不该完全交给机器。那些宣传片里双手离开方向盘的画面,看看就好,千万别当真。
现在我开车时还是会用手扶着方向盘,但不再迷信任何系统。每次FSD启动,我都提醒自己:它随时可能犯傻,而我只有几秒钟的反应窗口。这种心态或许扫兴,但至少能保证我和儿子的安全。毕竟,再酷的科技,也比不上活生生的人更重要。