Tesla FSD V12:自动驾驶史上的一次“伟大分歧”
如果你回头看自动驾驶这十几年的发展,会发现一个奇怪的现象:
技术越来越复杂,传感器越来越多,规则越来越严密,但离“像人一样开车”却并没有明显更近。
而 Tesla FSD V12 的出现,第一次把桌子掀了。
它不是一次普通的软件升级,而是一次被业内称为 “范式转变(Paradigm Shift)” 的路线决裂,甚至有人称之为——自动驾驶的「伟大分歧(The Great Divergence)」。
一、从“写代码教车开车”,到“让 AI 自己学会开车”
传统自动驾驶系统,本质上是一个工程师密集型产物:
感知模块:识别车、行人、红绿灯
规划模块:决定该不该变道、怎么转弯
控制模块:控制方向盘、油门、刹车
中间夹着几十万行规则代码,充满了:
如果看到 A,就执行 B如果同时看到 A + C,就执行 D
但现实世界的问题是:马路永远比规则复杂。
FSD V12 干了一件极端的事
Tesla 在 V12 里,直接删除了 30 多万行 C++ 控制代码。
取而代之的是一个巨大的神经网络,官方给了它一个非常“科幻”的名字:
Photon → Control(光子到控制)
什么意思?
输入:摄像头看到的原始视频(光子)
输出:方向盘角度、加速、制动
中间:没有人工规则,全是神经网络学出来的
它不再“理解规则”,而是模仿人类司机:看、想、动。
二、Tesla 押注的不是算法,是「规模」
你可能会问:这样不会很危险吗?AI 怎么知道什么时候该踩刹车?
Tesla 的答案非常简单,也非常疯狂:
数据 + 算力 = 驾驶智能
为什么是 Tesla 能这么玩?
因为它有一个别人没有的东西:真实世界的数据引擎。
全球数百万辆车
每天真实道路、真实驾驶行为
后台开启「影子模式」
AI 的决策和人类驾驶实时对比
一旦 AI 和人类做出不同选择,这一段就会被自动标记成 “困难片段(Hard Clips)”,回炉训练。
这不是“写规则”,而是——从人类身上学直觉。
据估算,Tesla 每年拥有 数百亿英里级别 的潜在训练数据,这在自动驾驶领域是压倒性的优势。
三、这就是“伟大分歧”:Tesla vs Waymo
自动驾驶今天,其实已经分成了两条完全不同的哲学路线。
Waymo 的世界观
激光雷达 + 雷达 + 摄像头
高精地图
强冗余、强可验证
像一个极其谨慎的工程系统
优点是:安全、可解释、监管友好缺点是:贵、慢、扩展性差
Tesla 的世界观
纯视觉(Vision Only)
不依赖高精地图
端到端神经网络
更像“人脑”而不是“工业控制系统”
优点是:扩展性极强、成本极低、潜力巨大代价是:黑盒、不可解释、监管极难
这不是技术路线之争,而是**“什么才算安全”的哲学之争**。
四、为什么 FSD V12 其实是在做「世界模型」
如果你站在更高一层看,FSD V12 并不只是“开车 AI”。
它在做一件更接近 AGI 的事情:
让模型在脑中理解世界,并预测未来。
为了直接从视频输出控制指令,模型必须隐式学会:
物体的运动规律
速度与距离的因果关系
行为带来的后果
“现在这样做,几秒后会发生什么”
这其实已经是一个**世界模型(World Model)**的雏形。
Tesla 甚至在训练 视频生成模型,让 AI 在“想象中的未来”里反复试错,再决定现实中的动作。
你可以把它理解成:
AI 在脑子里先开了一遍车,再动手。
五、这是一场豪赌,而且风险极高
必须说清楚:FSD V12 并不完美。
低能见度下的可靠性
偶发的“幻影制动”
决策过程无法解释
监管认证难度极高
这也是为什么它至今仍被称为 FSD(Full Self-Driving Beta),而不是 L4。
但同样不能忽视的是:
接管率大幅下降
驾驶行为明显更“像人”
平顺性提升极大
它不像一台机器,更像一个正在学习中的司机。
六、这不是一条安全的路,但可能是唯一的路
Tesla FSD V12 本质上是在说一句非常大胆的话:
自动驾驶,不是工程问题,而是智能问题。
如果这条路走通了,它不仅改变自动驾驶,也会改变我们对 AI 如何理解世界、如何行动 的认知。
如果失败了,代价也会非常昂贵。
但所有技术史上的重大突破,几乎都来自这种——不那么“稳妥”的选择。