上周陪朋友去4S店试车,销售指着中控屏上的一堆按钮,说这是车道保持,那是自动跟车,五分钟讲完就让他开去上环路。朋友握着方向盘的手攥得很紧,一路盯着仪表盘,比平时手动开累十倍。
到了服务区他才松口气,说总觉得车在“自己瞎开”,明明看到前方有施工锥桶,不确定系统有没有识别到,不敢完全放松,也不敢随便干预。
这种纠结,不是他一个人的问题。
我们的大脑,还没准备好接管自动驾驶的“监控岗”
当司机变成“监控员”,才发现我们天生不擅长这件事
现在市面上卖的新车,几乎都带点自动驾驶功能:车道保持能让车自己走直线,自动刹车会在碰到障碍物前停下,甚至有的能跟着前车自动调速。这些功能本是为了减少人为失误,却悄悄把司机的角色彻底换了。
你不再是握着方向盘的操作者,而是成了一个“监控员”。不用踩油门不用打方向,却得时刻盯着系统的每一步操作,准备在它出错的瞬间抢回控制权。
这是一种人类天生不擅长的“警觉任务”——我们根本没法连续几十分钟保持高度专注,哪怕眼前的画面没什么变化。
工程心理学教授罗纳德·麦克劳德研究人机交互几十年,他自己买了带自动驾驶的车后,才真正意识到问题的严重。提车时没人给做任何培训,直接把钥匙塞给他,就让他开去格拉斯哥的早高峰车流里。
“没有任何伦理委员会会允许这种实验,但现在全世界每天都在上演。”
手动开车时,我们靠肌肉记忆就能完成加速、转向、刹车,大脑不用时刻紧绷。可监控自动驾驶系统不一样,你得在脑子里构建一套“汽车状态模型”:它现在用的是哪个功能?这个功能的极限是什么?它有没有看到我眼前的那个行人?
这种认知负荷,比手动开车还重。你得一边假装放松,一边让大脑保持高速运转,随时准备做出判断。更糟的是,每个人的状态不一样:年纪大的反应慢,疲劳时注意力差,新手连手动开车都没摸熟,更别说判断系统的对错。
有次教授开车遇到前方慢车,系统还在保持原来的速度。他能看到前面的车,却不知道自己的车“看没看到”。那种不确定感像针一样扎着他——到底要等多久,才能确定系统没反应,必须自己接管?
看不见的“系统状态”,正在摧毁我们对自动驾驶的信任
这种不确定感,本质是汽车和司机之间的“沟通失效”。
现在的自动驾驶汽车,很少会把自己的“状态”清晰地告诉司机。系统有没有识别到前方的障碍物?它现在处于自动跟车还是车道保持模式?这些关键信息,要么藏在几十页的用户手册里,要么用个小图标在仪表盘角落闪一下,不仔细看根本注意不到。
当你不知道汽车“在想什么”,每一次系统运行都是一次信任的消耗。
刚开始用自动驾驶时,你可能会觉得新鲜,甚至有点依赖。可一旦遇到一次系统没识别到障碍物,或者突然退出自动驾驶,那种安全感就会瞬间崩塌。之后再用,每一秒都在怀疑:它这次会不会出错?
这种信任的失衡,不止发生在汽车上。波音737MAX的两次坠毁事故,本质也是人机沟通出了问题:系统悄悄启动了防失速功能,飞行员却不知道,等到发现时已经来不及干预。还有核电站的操作失误、轮船的碰撞事故,甚至温布尔登的电子线审争议,背后都是同一个问题——设计者只考虑了技术的可行性,没考虑人的心理承受能力。
教授说,自动化改变的不是操作方式,而是人的角色。手动开车是“直接控制”,监控自动驾驶是“间接监督”,这两种角色的要求完全不同。你不能指望一个只会手动开车的人,天生就会当“监控员”,就像不能让一个只会做饭的人,突然去当餐厅经理。
自动驾驶的未来,得先从“懂人”开始
教授说,我们不需要放弃自动驾驶,但得彻底改变思路。
不能再把自动驾驶功能当成“附加件”,往车上一装就完事。得把人的心理需求,当成和硬件、软件一样重要的核心来设计。
首先要做的,是给司机做“监控岗”的培训。不是教他们怎么按按钮,而是用模拟场景训练:比如系统没识别到行人时该怎么反应,比如遇到恶劣天气时该什么时候接管。就像飞行员要在模拟器里练几百次紧急情况,司机也得熟悉这种“待命状态”下的判断逻辑。
然后是重新设计汽车的界面。得把系统的状态,用最直白的方式告诉司机:比如用不同颜色的灯光表示系统的识别状态,用语音提醒“已识别前方慢车,将自动减速”,让司机不用猜,就能知道车“在做什么”“能做什么”。
甚至连驾考都得改。以后的驾照考试,不能只考手动或者自动换挡,还得考“监控自动驾驶的能力”:比如让考生在模拟场景里判断什么时候该接管,怎么快速切换手动模式。
自动驾驶的终极目标是安全,但安全的前提是人和技术的适配,而不是让人去迁就技术。
朋友后来再开那辆车,还是会偶尔紧张,但他花了一下午看用户手册,又在空旷的路段练了几次,慢慢摸清楚了系统的脾气。他说现在敢在高速上用自动驾驶,但还是会把一只手放在方向盘上,“不是不信任,是知道自己该做什么”。
我们总说技术改变生活,但改变的前提是,技术得先懂人。不然那些看似先进的功能,只会变成套在我们身上的另一个枷锁,让开车这件事,从享受变成负担。