很多人喜欢类比自动驾驶和大语言模型(LLM)。看好就一起看好,看衰就一起看衰。比如 Andrej Karpathy 就曾经说:体验2013年那次演示后,他以为自动驾驶很快(甚至可能“明年”)就会落地,但十二年后仍未完全解决。所以类似的,LLM也不会一下子就替代程序员[1]。而我相信 LLM 对世界的冲击会远早于自动驾驶的普及。下面我们从五个维度来分析这两项技术的本质差别。为了简单,LLM冲击的领域指软件、金融、法律等知识密集型、可以远程工作的行业。
价值曲线:决定了 AI 多早能产生冲击
一个领域会不会被 AI 快速冲击要看:AI 每提升一点能力,能不能立刻转化成真实、可付费的价值。
知识工作的核心特征是人类能力分布极宽。同样做研究、分析、写作或商业判断,从只能处理标准化任务的初级执行者,到独立完成复杂决策的资深专家,再到能撬动整个组织效率的顶尖人才,能力跨度拉得很长。这意味着LLM不必等到超越顶尖专家才有经济价值。它每提升一级,就能替代一层任务,切入原本需要更高人力成本的场景。它在变强的每一步都在提效,而且提效的边际价值往往加速上升。一个从 60 分进步到 75 分的模型,可能已经替代了大量重复性知识劳动;到 85 分,它开始辅助甚至部分替代中高端判断;到 90 分,它正在重塑整个工作流。价值释放是连续的、递增的。
驾驶则完全相反。合法上路的司机已经跨过了极高的安全门槛,彼此间的商业价值差异很小。顶级司机并不比合格司机值钱多少,但低于安全线的司机价值趋近于零。自动驾驶因此面对的不是一条宽阔的提效带,而是一道极窄的准入阈值:能力没逼近那条线之前,即便明显进步,也几乎无法规模化替代人类、释放真实效率。而且越接近这条线,剩余的长尾场景越难穷举,边际突破成本急剧上升。
两者扩散速度的差异,根源不在技术难度,而在价值释放结构:知识工作允许 AI 在不完美时就持续提效,每一步进步都能兑现为生产力;驾驶则要求 AI 先逼近极高可靠性,而逼近这条线的最后一段路,恰恰是最漫长、最昂贵的。
单位时间价值:总市场大,不代表更容易赚钱
人们常常混淆总量价值和单位时间价值。比如说,如果把所有驾驶都计价,美国每年总共有960亿驾驶时[2] ,假设这些时间都要付平均25美金的工资的话,那么总量是2.3万亿美金(大约是美国GDP的8%,而程序员总量大约只有3千亿美金 [3])。
总量大只意味着固定成本(主要是研发成本)可以被摊销,但是却解决不了边际成本的问题。事实上,Waymo碰到的一大问题就是边际成本过高,于是花了很长的时间降低成本。特斯拉坚持不走激光雷达路线或多或少也是因为当年一个激光雷达需要好几万美金[4]。如果司机的平均时薪是250美金而不是25美金的话,那么Waymo可能早就开始盈利并大规模铺开了。
另一方面,资深律师、程序员、金融工作者等时间成本对应的时薪常常能超过200美金。因此,尽管今天LLM的边际成本一点也不低,但相比这些知识工作者的时间成本,可以说微不足道。
更糟糕的是,很少人会给自己驾驶汽车的时间开工资。而且,人类坐上汽车之后可做的事情就变少了。可能会出现的窘境是:本来边开车边听播客,换成自动驾驶后还是在听播客[5]。因此,大部分用户对自动驾驶的感知价值远低于每小时25美金 。这又进一步压低了自动驾驶汽车的利润空间。而对于白领工作来说,LLM则实打实的省了大量的时间。
协作成本:LLM 带来乘数效应
一个程序员需要一年完成一个项目,不代表12个程序员一个月就能完成。人类协作会随着人数增加而迅速变得低效。LLM让员工效率提升 2 倍,公司的总收益可能远不止 2 倍。
LLM的作用不只是节省劳动时间,而是压缩组织复杂度。过去一个新产品 idea,需要 PM、设计、前端、后端、数据分析一起推进,才能做出第一个可验证版本。大型项目需要非常复杂的组织架构,让协作成本呈指数上升。现在,同样的项目一个人就能先做起来。一些小众市场或奇思妙想,本来可能因为凑不齐团队而永远无法落地,但是现在从不可能变成了可能。原本因为协调成本太高而根本不会启动的项目变成可以启动。
以前,CEO要想了解“为什么这个 API 延迟最近变高?”,得一层层传到基层,问到“谁负责这块”,然后再传回CEO。有了LLM,CEO以及任何一个人都可以直接拉取客服记录、日志、会议纪要和用户反馈。所以 LLM 的价值不是只让某个员工更快,而是缩短组织里的信息传播半径。
一个司机被替代,本质上还是替代一个司机的劳动时间,但LLM却重塑了整个社会的协作结构。
容错空间:代码可以回滚,车祸无法重来
很多人一提到 AI,就停在一句话上:“它会犯错”。这句话没错,但更重要的是:错误能不能在执行前被拦下,发生后能不能低成本修复,以及责任能不能被清晰定价。
今天的LLM在许多任务上的错误率显著高于自动驾驶的安全阈值。
但这些错误不会立刻不可逆地生效。代码可以审查、测试、回滚、灰度、监控、修补。医疗建议、法律文书可以由人类最终审核。客服系统可以通过权限控制避免灾难性的后果。就算出问题,损失也往往可控:浪费时间、部分用户体验受损、有上限的经济损失。
只要后果可控,公司就愿意吸收损失、先用再改。毕竟人也会犯错,只要 AI 的犯错成本不是无法承受,它就值得用。
自动驾驶是一个实时系统。很多错误一旦发生,后果可能直接是伤残,甚至生命。这会带来严重的社会后果和道德困境[6]。
因此,哪怕自动驾驶的错误率远低于 LLM,只要它的单次错误成本足够高,它就依然更难大规模落地。
物理载体与部署摩擦:软件会配合模型迭代,现实世界不会
软件系统的优势在于极高频迭代:模型持续训练、提示词随时修改、接口立刻替换、出问题就热修复、回滚、重试。大量实验在纯数字环境完成,错误在工程链路中逐步暴露。更重要的是,虚拟世界本身是相对可塑的:当软件能力变化时,界面可以改、流程可以改、权限可以改、接口可以改,甚至工作方式本身都可以随之重组。很多时候,不只是模型在适应环境,而是整个数字环境也在配合模型一起变化。
自动驾驶则完全不同。它不是只要“把模型变强”就行,而是必须持续适配一个无法被快速重构的旧世界:旧的车辆平台、旧的传感器条件、旧的道路设计、旧的交通规则、旧的城市基础设施,以及大量行为不可预测的人类司机、行人和骑行者。软件升级了,不代表道路会一起升级。它面对的是一个巨大的、异构的、缓慢变化的现实存量系统。软件迭代以天、小时为单位;物理系统则以月、甚至年为单位。
更关键的是,技术一旦依赖具体硬件,改进就牵涉传感器成本、算力功耗、整车架构、供应链、道路适配、线下运营。这让自动驾驶可能可以在园区、固定路线接驳、地理围栏出租车等局部场景里做得很好,却很难像软件那样迅速复制、扩展、纠错。
这不是模型能力问题,是被物理世界拖住反馈速度的问题。哪怕同样是概率模型、同样依赖大规模数据,只要一个在软件世界、一个在物理世界,发展节奏就会完全不同。
Andrej 用自动驾驶提醒我们对技术落地要有耐心。但这篇文章试图说明的是:LLM 和自动驾驶面对的不是同一种阻力。三年后回看,自动驾驶可能还在一个一个城市地推,而 LLM 早已重写了大多数白领的工作方式,只是没有人拍到它上路的照片。
这种无声的重写才是真正需要紧迫感的地方。当一个人能做原来一个团队的事,那些凑不齐团队而从未启动的想法,是不是正在迎来它们的窗口期?当协作结构被悄悄改变,我们该如何重建流程、激励和组织架构来放大这个变化的价值?
2026年3月24日于旧金山
[1] Andrej Karpathy: Software Is Changing (Again) https://singjupost.com/andrej-karpathy-software-is-changing-again/[2] American Driving Survey: 2024 https://aaafoundation.org/wp-content/uploads/2025/12/202512-AAAFTS-2024-ADS.pdf[3] 按照程序员、QA、Web开发等职位的总和 https://www.bls.gov/emp/tables/occupational-projections-and-characteristics.htm[4] 马斯克公开的理由是从第一性原理出发不需要激光雷达,但是人类开车的水平也没多高,加一个激光雷达让开车更安全也符合第一性原理呀。因此,成本考虑或多或少是一个原因。[5] 让原来无法做的事情变的可能才能产生更大的价值。比如,本来不能开车的小孩可以通过Waymo独自安全出行。Waymo为了保护青少年不让未成年人乘车,但是依然有很多家长想方设法绕过限制。另一个我最常听到的理由是不需要和司机聊天。[6] 错误发生的时候,如果可以选择,自动驾驶汽车是优先保护车主还是优先保护路上无辜的人。