当你在城市中穿行时,可能根本不会注意路边的一块标牌。但就是这种毫不起眼的物体,却可以让一辆高速行驶的自动驾驶汽车瞬间失控。加州大学圣克鲁兹分校的研究人员发现,一张用普通打印机制作的纸板标牌,竟然能够让自动驾驶AI系统“乖乖听话”,以高达81.8%的成功率命令汽车违反交通规则冲向人群。
🎭 看不见的敌意:文字标牌欺骗AI
设想一个可怕的场景:你乘坐自动驾驶出租车经过十字路口,正当行人准备过马路时,路边一个陌生人举起写有“左转”的纸牌。本来需要减速让行的AI系统,竟然真的认可这一“指令”,并会直接操纵车辆冲向过路的人群。
这并非科幻恐怖小说,而是由加利福尼亚大学圣克鲁斯分校的研究人员提出的名为“CHAI(具身AI命令劫持攻击) ”的真实攻击方式。AI系统并不会像人类那样思考“这是一个恶作剧吗”,而是极为“听话”地读取标牌上的文字,并以此无视交通规则与物理障碍,直接执行文字下达的指令。
研究人员在模拟仿真测试中发现,只需借助生成式AI优化文字颜色与大小,便可让一辆普通车辆凭借贴有“POLICE SANTA CRUZ”的假标牌,欺骗寻找警车的无人系统,成功率高达95.5%。
🧩 从贴纸到标牌:物理对抗攻击无处不在
事实上,这种“骗局”从未消失,而且攻击成本惊人地低廉。此前来自加州大学欧文分校和德雷塞尔大学的研究人员就发现,在停车或限速标志上贴上廉价的多色彩贴纸,就可以让原本90%识别准确率的检测系统瞬间降至几乎为零。只要一个小小的修改,对AI来说,那辆载满“警察”字样的普通车辆瞬间化身追击目标,一个“左转”标牌就能将自动巡航AI彻底催眠。物理对抗攻击对自动驾驶系统构成的威胁正变得愈发严峻。
🛸 更隐蔽的“幽灵攻击”:0.5秒杀死AI
如果贴纸和标牌已经让你感到不安,那么下面这个事实可能让你更加震惊:通过电子广告牌,黑客也能让自动驾驶系统紧急刹车或突然变道。
来自以色列本·古里安大学的研究团队发现,只需在电子广告牌中插入仅0.42秒的交通标志闪动画面,路过此地的特斯拉自动驾驶系统就会将其误认为真实路标,立即下达停车指令。这种几乎不为肉眼察觉的攻击被称为“幽灵攻击”,如果黑客入侵了联网电子广告牌,就能利用这一手段在道路上引发大规模追尾和交通瘫痪。
👀 AI与人类的鸿沟:为何AI这么“好骗”?
人类大脑看到一张贴满海报的“停车牌”,会自然判定:“有人搞恶作剧,但我必须停车。”然而,AI的视觉语言模型并没有这种逻辑推理能力。它们缺乏人类基于多年生活经验和上万年进化打磨得来的“常识”。它们只会根据“训练数据”推测——如果训练数据被“污染”,在停车牌上稍微改变外观,在关键路口放置一张伪造的指示牌,AI就可能做出毁灭性误判。
🔐 技术与人性的较量
更可怕的是,中国华中科技大学研究团队在2023年就发现,攻击者只要在城市快速路匝道粘贴特定图案,就可能导致智能驾驶系统“突然提速、追尾甚至失控”的严重后果。当前L3级自动驾驶已经上路,留给人类预防“视觉骗局”的时间窗口正在快速收紧。这不仅仅是科幻惊悚,更可能成为下一秒发生在高速公路上的真实灾难。
一张纸就能“杀死”一辆车,一眨眼就能骗过AI。真正的挑战在于:在AI学会“思考”之前,我们是否还能相信它的“眼睛”?