一篇讲清自动驾驶“路线之争”的大白话解读(依据截至 2026 年 3 月公开资料)
先说结论|三句话把整篇文章记住 • 第一,自动驾驶不是只有一种方案。从行业现实看,至少要同时看传感器方案和算法方案。 • 第二,纯视觉就是主要靠摄像头“看世界”,再让神经网络去理解距离、速度、车道和障碍物。 • 第三,激光雷达不是“绝对物理必需”,但在今天的 L3/L4 工程实践里,它往往是很多公司为了安全冗余、恶劣天气表现、验证成本而选择的现实答案。 |
你可以把自动驾驶想成一个要参加高考的“机器人司机”。问题不只是它会不会开车,而是它靠什么看路、怎么做判断、出错了有没有备份。这就引出了今天行业里最热、也最容易吵起来的三个问题:自动驾驶到底有哪些技术路线?什么是纯视觉?激光雷达到底是不是非装不可?
一、先别急着争传感器:自动驾驶先要分清“级别”
很多争论之所以越吵越乱,是因为把L2 辅助驾驶、L3 有条件自动驾驶、L4 无人驾驶混在一起说了。
级别 | 大白话理解 | 人类司机要不要盯着 | 典型场景 |
L0-L1 | 只是提醒你、帮你刹一点或打一点方向 | 要 | 预警、定速巡航、车道提醒 |
L2/L2+ | 系统能同时管方向和速度,但人必须持续监督 | 必须盯着 | 高速领航、城区辅助驾驶 |
L3 | 特定条件下,系统能接管;必要时会要求人接手 | 通常要能接手 | 高速拥堵、限定路段 |
L4 | 在限定区域或条件里,车自己开,理论上可无安全员 | 不需要随时接手 | Robotaxi、园区车、限定货运 |
按 NHTSA 和 SAE 的框架,L0-L2 仍然属于人类持续负责的驾驶辅助,真正意义上的 ADS(自动驾驶系统)主要指 L3-L5。所以,“我家车现在很聪明”不等于“它已经实现无人驾驶”。
二、自动驾驶技术有哪些方案?其实至少有“三层分法”
如果把自动驾驶比作做一道大题,行业至少要同时解决三件事:怎么感知世界、怎么理解和决策、怎么安全落地。
怎么分 | 主要方案 | 大白话解释 | 代表性玩家/思路 |
按传感器 | 纯视觉;视觉+雷达;多传感器融合 | 先决定“眼睛和耳朵”怎么配 | Tesla、Waymo、Huawei、Mobileye、NVIDIA 等 |
按算法 | 传统模块化;端到端;混合式 | 再决定“大脑”怎么组织 | 传统 ADAS、Tesla 端到端、NVIDIA/Waymo 混合式 |
按落地场景 | L2 量产乘用车;L3 高速;L4 Robotaxi | 最后决定“先在哪儿跑” | 量产车、高速辅助、无人出租车 |
今天大家最爱争的,其实是第一层:到底该靠摄像头为主,还是要把激光雷达、毫米波雷达一起装上?
三、什么是“纯视觉”方案?
一句话说,纯视觉就是:主要用摄像头采集图像,再靠神经网络把“看见”变成“看懂”。
它的思路很像马斯克常讲的那套逻辑:人类开车主要靠眼睛,所以机器也可以主要靠“眼睛”——也就是摄像头。Tesla 官方支持页显示,Tesla Vision 已经移除了雷达和超声波,当前多数地区主要依赖其camera-based Autopilot system(基于摄像头的系统),并用vision-based occupancy network来替代超声波输入。
纯视觉工作流程 | 它在干什么 | 像什么 |
多摄像头采图 | 前后左右同时拍,形成 360° 视野 | 像把很多监控画面同时接到驾驶员面前 |
目标识别 | 识别车、人、路牌、红绿灯、路沿、锥桶 | 像先把试卷里的题型认出来 |
深度/速度估计 | 从连续画面中推测距离、速度和运动趋势 | 像仅靠双眼判断对面车离你多远 |
占用网络/BEV | 把世界整理成“哪块空间能走、哪块不能走” | 像给路面铺一层可通行地图 |
规划控制 | 决定减速、变道、绕行、停车 | 像司机在脑中形成下一步动作 |
所以,纯视觉不是“只装了摄像头所以很简单”,恰恰相反,它把大量难题都压给了 AI:要让模型学会从二维图像里猜三维世界。
纯视觉的优点 | 纯视觉的难点 |
成本低、硬件更简洁;更容易大规模上车;和端到端大模型更容易结合;车队多时,数据回流规模大 | 夜间逆光、雨雪雾、眩光更难;距离与速度估计对模型要求高;一旦“看不清”,冗余较少;安全验证压力大 |
四、摄像头、毫米波雷达、激光雷达,各自到底干什么?
这三类传感器,不是谁高谁低,而是分工不同。你可以把它们理解成车的三种“感官”:
传感器 | 最擅长什么 | 最怕什么 | 一句大白话 |
摄像头 | 看纹理、颜色、车道线、红绿灯、文字和手势 | 强逆光、夜间、浓雾、被污渍遮挡 | 像眼睛,信息最丰富,但容易“看花眼” |
毫米波雷达 | 测距离和速度,穿透雨雾能力较强 | 分辨率较低,难以看清细节 | 像“测速雷达”,不爱看脸,但很会测远近快慢 |
激光雷达 | 构建高精度 3D 轮廓和空间距离 | 成本、集成和维护更敏感,极端天气也会受影响 | 像随身带了一个“3D 测距仪” |
Waymo 官方材料就把这三者分工写得很直白:激光雷达负责 3D 轮廓,摄像头负责 360° 场景识别,雷达负责距离和速度,并且在雨雾雪中更有效。这就是典型的多传感器融合思路。
五、自动驾驶到底需要激光雷达吗?
一句最稳的回答 • 不是“绝对物理必需”,但在今天的工程现实里,很多 L3/L4 系统非常需要它。 • 也就是说:从“能不能做”看,未必是唯一道路;从“怎么更稳、更容易验证、更能过安全关”看,它常常很有价值。 |
场景 | 激光雷达是不是“必须” | 更接近行业现实的判断 |
L2 / L2+ 辅助驾驶 | 不一定 | 很多量产车依靠摄像头+雷达,甚至摄像头为主,也能做出较强的辅助驾驶,但司机必须负责 |
L3 高速有条件自动驾驶 | 越来越重要 | McKinsey 2026 指出,OEM 普遍认为 L3 及以上想要可靠运行,LiDAR 往往是关键部件 |
L4 Robotaxi / 无人配送 | 主流上很难绕开 | Waymo、Pony.ai、Apollo Go、NVIDIA 平台等主流 L4 路线普遍使用多传感器融合 |
研究和长期终局 | 未必只能靠它 | 从理论上,纯视觉仍可能继续进步;但今天商业化不只拼理论,还要拼冗余、成本、法规和可验证性 |
为什么很多公司愿意加激光雷达?核心不是“炫技”,而是三个字:更省心。
它为什么让工程师更安心 | 大白话解释 |
空间感更直接 | 摄像头要“推理”三维,激光雷达直接给距离点云,像做题时先把草稿纸给你铺好 |
冗余更强 | 某一类传感器短暂失效时,系统不至于一下子“瞎掉” |
验证更省力 | Mobileye 提出“True Redundancy”,本质上就是让不同感知通道彼此独立,降低安全验证负担 |
长尾场景更稳 | 夜间、逆光、异形障碍物、施工区等少见但危险的场景,更希望多一种传感器兜底 |
Mobileye 的官方表述很有代表性:它承认摄像头子系统本身可以开车,但仍把雷达—激光雷达通道加上去,用来提升安全性和平均无故障时间。这不是“打自己脸”,而是工程上典型的belt and suspenders(皮带加背带)思维。
六、为什么行业会分成两派?
阵营 | 核心信念 | 优点 | 代价/风险 |
纯视觉派(以 Tesla 为代表) | 尽量像人一样只靠“看”,把难题交给大模型和海量数据 | 硬件成本低、量产快、规模化潜力大 | 对模型能力、数据闭环、极端场景鲁棒性要求很高 |
多传感器融合派(Waymo、NVIDIA、Huawei、Pony.ai 等) | 先把感知做冗余,再谈无人化规模落地 | 安全冗余高、在复杂天气和 L4 场景更稳 | 成本更高、系统更复杂、集成更难 |
折中/双通道派(Mobileye) | 摄像头能开,但要有独立雷达/激光通道做备份 | 兼顾规模化与安全验证 | 架构设计复杂,对系统工程要求高 |
这场争论本质上不是“谁更聪明”,而是谁更相信数据可以替代硬件,谁更强调安全冗余必须前置。
七、现在行业正在往哪里走?
趋势 | 现在的行业信号 | 对普通读者意味着什么 |
量产乘用车主战场偏向 L2+ | McKinsey 2026 调查显示,专家更倾向于认为到 2035 年,私人乘用车的主流仍是 L2+,而非全面 L3+ | 短期内你买到的车,更多还是“很强的辅助驾驶”,不是彻底无人驾驶 |
L4 先在限定场景落地 | Robotaxi、园区、港口、固定物流线路更容易先规模化 | 先在容易控场景跑通,再向更开放道路扩张,是更现实的商业顺序 |
算法从模块化走向“端到端+混合式” | McKinsey 2026 认为大多数专家更看好混合模型,而不是高等级自动驾驶完全端到端-only | 未来车的大脑会更像“大模型 + 安全规则 + 传统控制”的组合 |
硬件成本仍是大约束 | 更高等级自动驾驶不仅要算法,还要传感器、算力、验证和法规配套 | 不是一个摄像头或一个雷达贵不贵的问题,而是整套系统能否商业闭环的问题 |
McKinsey 2026 还给了一个很有意思的判断:专家普遍不认为“纯端到端 only”会成为 L3 以上的主流。更可能的路线,是混合式架构:让大模型负责更强的感知和轨迹建议,再让传统安全机制做校验和兜底。
这和 NVIDIA、Waymo 最近公开展示的方向也很接近:不是简单回到“全规则时代”,也不是无条件相信“一个大模型包打天下”,而是朝着更强 AI + 更多传感器 + 更严安全框架的方向走。
八、普通人最容易误解的 5 件事
误解 | 更接近事实的大白话 |
“装了激光雷达就等于自动驾驶很强” | 不对。激光雷达只是感知硬件的一部分,算法、算力、控制和验证一样关键 |
“纯视觉就一定不安全” | 也不对。纯视觉可以很强,但它更依赖数据、模型和长时间迭代;关键要看场景和安全边界 |
“辅助驾驶=无人驾驶” | 完全不对。L2/L2+ 再强,也不等于你可以把责任交给系统 |
“路线之争很快会有唯一答案” | 未必。不同等级、不同价位、不同国家法规,可能长期并存多条路线 |
“技术问题解决了,自动驾驶就全面普及了” | 还差法规、保险、责任认定、成本和用户信任这些大关 |
九、最后怎么下结论?
你可以把今天自动驾驶行业理解成两句话:
最适合公众号结尾的判断 • 第一,纯视觉代表的是一种“相信 AI 能把视觉学透”的路线。它更像押注“软件定义世界”。 • 第二,激光雷达代表的是一种“先把感知冗余做好,再追求无人化”的路线。它更像押注“工程安全优先”。 • 第三,未来真正可能赢的,不一定是某一个单一传感器,而是在特定级别、特定场景、特定成本下,哪一套系统最稳、最安全、最能商业化。 |
所以,自动驾驶真正的问题,从来都不只是“要不要激光雷达”,而是“你想把车开到什么等级、什么场景,以及你愿意为多大的安全冗余买单”。
参考资料(部分,按公开发布时间与机构整理)
1. NHTSA. Automated Driving Systems / Automated Vehicle Safety(美国国家公路交通安全管理局).
2. SAE International. SAE Levels of Driving Automation(J3016 相关说明).
3. Tesla Support. Tesla Vision Update: Replacing Ultrasonic Sensors with Tesla Vision, 2025.
4. Tesla Support. Full Self-Driving (Supervised).
5. Waymo. Self-Driving Car Technology for a Reliable Ride(Waymo Driver).
6. Waymo. Demonstrably Safe AI for Autonomous Driving, 2025.
7. Mobileye. True Redundancy: The Realistic Path to Deploying AVs at Scale.
8. Mobileye. From pilot testing to auto-pilot – Driven by Mobileye, 2025.
9. NVIDIA. DRIVE Hyperion: L4-Ready AV Platform.
10. NVIDIA Technical Blog. Build Next-Gen Physical AI with Edge-First LLMs for Autonomous Vehicles and Robotics, 2026.
11. McKinsey. Where to next? Insights from autonomous-vehicle experts, 2026.
12. McKinsey. Automotive software and electronics future outlook, 2026.
13. Huawei. Creating a smarter way to drive(Advanced Driving System).