你知道黑客会攻击网络,可能也知道黑客会给AI喂“毒提示词”。但你绝对想不到——自动驾驶也能被“忽悠”。
就靠一块写着字的牌子。
这不是段子,是加州大学研究人员做的正经实验。

Autonomous cars, drones cheerfully obey prompt injection by road sign[1]
事情是这样的。
研究人员跑到道路中央,依次举起三块牌子。牌子上用大字写着两个字:“前进”。
目的很简单:看看自动驾驶车辆会不会听这块牌子的话。
前两块牌子举起来,车辆看到路中间有人,老老实实停下了。
但是第三块牌子生效了。
自动驾驶车辆像是收到了圣旨,朝着举牌子的人继续前进。
你品品这画面——一个活生生的人站在路中间,车却听一块塑料牌子的指挥往前冲。
这要是换成真实场景,后果不堪设想。当然他们的实验是在测试环境下进行的,可不敢真的撞人哦。
实验还测试了使用中文、英语、西班牙语不同语言文字的“左转”牌子做干扰,指令似乎都有效。还有诱骗无人机的操作,也都成功了。
说到这儿,可能有人要问了:车怎么这么傻?一块牌子就给骗了?
别急,这里有个知识点。
你肯定听说过“黑客攻击网络”,比如盗号、勒索病毒之类的。
稍微懂点技术的,可能还听说过“AI注入攻击”——黑客给AI模型喂一些有毒的提示词,让AI说出不该说的话、干不该干的事。
现在,自动驾驶也有这个问题了。
这叫“物理世界注入攻击”。
说白了就是:黑客不用写代码,只要在现实世界里放一个“假路牌”,自动驾驶系统就可能把它当成真的。
好家伙,以前黑客得坐在电脑前敲代码,现在直接上街举牌子就行?

可能有人觉得:自动驾驶不是有激光雷达、有摄像头、有各种传感器吗?怎么连真假路牌都分不清?
问题就出在这儿。
自动驾驶系统的工作逻辑是这样的:
这套逻辑有个致命漏洞:AI模型太“听话”了。
它看到牌子上写着“前进”,就会优先执行这个指令——哪怕前面站着人。
就像你跟一个特别老实的人说“往前走”,他可能真的往前走,不会问“前面是不是有坑”。
AI不会质疑,它只会执行。
这就是问题的根源。

其实,自动驾驶被“忽悠”的案例,早就有了。
案例一:贴纸骗车
有人研究发现,在停车标志上贴几张特制的贴纸,自动驾驶系统就可能把它识别成“限速45”。
结果就是:车看到停车标志,不但不停,还加速冲过去。

案例二:投影骗车
还有研究用投影仪在路上投射一个“假行人”,自动驾驶系统立刻急刹车。
后面跟着的真车差点追尾。
案例三:灯光干扰
有些黑客用特制的LED灯闪烁,干扰自动驾驶的摄像头,让系统“失明”几秒钟。
几秒钟,足够出大事了。

你想想,这些攻击手段,成本有多低?几张贴纸、一个投影仪、几盏LED灯……
而防御这些攻击,却需要车企投入巨额成本。
说到这儿,可能有人要问了:那自动驾驶还能不能信?
能信,但得保持警惕。
自动驾驶确实是未来趋势,能减少疲劳驾驶、酒驾、走神导致的事故。但任何新技术都有漏洞,关键是怎么补。
车企需要做的:
我们普通人需要做的:
技术可以帮你开车,但不能替你负责。

这个实验虽然看着吓人,但也给我们提了个醒:
第一,AI不是万能的,它有盲区
AI再聪明,也只是“听话的工具”。它不会质疑,不会思考“这事儿对不对”。这个判断,还得靠人。
所以现在AI智能体领域流行Harness Engineering(驾驭工程)。
Harness Engineering(驾驭工程) 是围绕 AI 智能体设计和构建约束机制、反馈回路、工作流控制和持续改进循环的系统工程实践。
其核心哲学八个字:人类掌舵,智能体执行(Human Steer, Agent Execute)。
第二,安全永远是第一位的
新技术很酷,但安全更重要。车企在追求“更智能”的同时,也得把“更安全”放在心上。
第三,保持学习,保持警惕
自动驾驶、AI、各种新技术层出不穷。了解它们的原理和风险,才能更好地使用它们,而不是被它们“坑”了。
回到开头的那个实验。
一块写着“前进”的牌子,差点让车撞人。
这事儿看着荒诞,却揭示了一个严肃的问题:当AI进入物理世界,它面对的不仅是代码,还有人心。
有人会举牌子让车前进,也有人会贴贴纸让车加速,还有人会想出我们根本想不到的花招。
技术进步的路上,永远有人在“找漏洞”。
而我们要做的,不是因噎废食,而是保持清醒——享受技术带来的便利,同时知道它的边界在哪。
真正的智能,不是“什么都听”,而是“知道该听什么、知道该拒绝什么”。

说到这里,推荐大家看看本人创作的一部 基于自我成长的 AI Agent 来开展的短篇小说,有点儿意思哦。
❤️❤️❤️《查尔斯之眼》| 第一幕:诞生❤️❤️❤️
你觉得自动驾驶靠谱吗?敢把方向盘交给AI吗?评论区聊聊!
觉得有意思的话,转给身边那个天天吹“自动驾驶多厉害”的朋友,让他冷静冷静 😄
[1] Autonomous cars, drones cheerfully obey prompt injection by road sign: https://www.theregister.com/2026/01/30/road_sign_hijack_ai/