自动驾驶技术|2026年第12周(3月16日–3月22日)
> 本期汇集本周自动驾驶行业核心动态与最新学术进展,覆盖Robotaxi商业化、车企智驾、技术供应链及 arXiv 精选论文四大板块。数据来源时间范围:2026年3月16日至3月22日。
🚕 Robotaxi商业化
动态如祺出行引入百辆广汽埃安霸王龙,Robotaxi运营升至近600辆
3月19日,如祺出行宣布超百辆全新广汽埃安霸王龙Robotaxi(由小马智行交付)正式加入车队,平台Robotaxi总运营规模升至近600辆。如祺出行同日与小马智行在广州签署战略合作协议,双方将推动有人网约车与Robotaxi混合运营模式在广州规模化落地,打造国内首个"开放道路Robotaxi商业混合运营"标杆案例。
来源:搜狐汽车
🚗 车企智驾进展
动态英伟达GTC 2026:比亚迪、吉利、日产基于Hyperion推进L4量产
3月17日,英伟达在GTC 2026大会宣布NVIDIA DRIVE Hyperion平台获广泛采用,比亚迪、吉利、日产(搭载Wayve软件)及Bolt、Grab等出行服务商正基于该平台开发下一代L4级自动驾驶项目。英伟达同步发布了推理模型Alpamayo 1.5、统一安全架构Halos OS以及仿真工具NuRec,构建L4自动驾驶完整闭环底座。黄仁勋表示:"自动驾驶汽车革命已至,ChatGPT时刻已来。"
来源:快科技 / 腾讯科技
动态小鹏第二代VLA智驾系统3月下旬开始推送
小鹏汽车官宣2026年OTA计划:第二代VLA(视觉-语言-行动)智驾系统将于3月下旬首先推送至P7 Ultra、G7 Ultra、X9 Ultra等旗舰车型,并于4月覆盖更多车型。二季度升级后,自动驾驶覆盖范围将从高速、城区主干道拓展至停车场、园区等无导航场景,实现从"公共道路"到"无规则内部道路"的跨越式进化。
来源:今日头条 / 快科技
动态小米新一代SU7上市,首发XLA智驾架构
3月19日,小米汽车新一代SU7正式上市,三款配置售价21.99万元起。新车首发小米蛟龙底盘与XLA(eXtended Language-Action)智驾架构,在原有端到端基础上引入语言模型理解能力,支持更复杂的驾驶场景决策。新一代SU7被业界视为小米智驾从"跟随"转向"自研突破"的重要节点。
来源:快科技
动态特斯拉FSD欧洲认证进入最后冲刺,国内落地预期升温
3月21日,特斯拉欧洲团队宣布FSD(监督版)在荷兰交通局的最终测试已完成,全部UN R-171认证文件已提交,审批通过节点由3月20日小幅顺延至4月10日,预计2026年夏天在欧盟全域铺开。与此同时,特斯拉官宣3月31日终止FSD免费转移计划,市场对FSD中国市场加速落地的预期随之升温。
来源:腾讯科技
🔧 技术与供应链
动态华为乾崑发布全球量产最高线束激光雷达——896线双光路图像级
3月4日,华为鸿蒙智行技术焕新发布会上,华为乾崑正式推出全球首款量产896线双光路图像级激光雷达,将车载感知从"3D点云时代"推向"3D成像时代"。其首创双光路架构(广角+长焦双焦段集成),较上一代192线产品感知精度大幅跃升,并支持面临的极端天气、逆光等复杂场景。问界M9和尊界S800两款旗舰车型率先搭载,同期发布的还有尚界Z7系列新车预告。
来源:今日头条 / 搜狐科技
动态英伟达推出Applied Intuition合作,加速L2+系统大规模部署
3月17日,自动驾驶软件公司Applied Intuition宣布与英伟达达成合作,成为基于英伟达硬件开发L2+高速公路驾驶系统OEM厂商的推荐软件供应商,旨在进一步压缩从研发到量产的周期。此举被业界解读为英伟达从"芯片供应商"向"全栈自动驾驶方案提供商"转型的重要一步。
来源:腾讯科技
📚 本周arXiv精选论文
论文DriveTok: 3D Driving Scene Tokenization for Unified Multi-View Reconstruction and Understanding
机构:清华大学(Dong Zhuo, Wenzhao Zheng等)|提交日期:2026年3月19日
随着VLA(视觉-语言-行动)模型和世界模型在自动驾驶中的普及,如何对三维驾驶场景进行统一表征成为关键挑战。DriveTok提出一种3D驾驶场景Tokenization框架,将多视角图像重建与场景理解统一在同一Token空间,为端到端驾驶大模型提供更高效的输入表征。该方案有望显著降低VLA模型的训练复杂度并提升跨场景泛化能力。
arXiv: 2503.xxxxx(2026年3月提交)
论文VectorWorld: Efficient Streaming World Model via Diffusion Flow on Vector Graphs
机构:香港大学(Chaokang Jiang, Desen Zhou等)|提交日期:2026年3月18日
现有生成式世界模型在闭环评估中存在三大痛点:无历史初始化导致与策略输入不匹配、多步采样延迟无法满足实时要求、长时推演累积误差。VectorWorld通过在向量图(Vector Graph)上应用Diffusion Flow,实现了高效的流式世界模型,在维持高真实感的同时大幅降低推理延迟,为自动驾驶闭环仿真提供了新范式。
arXiv: 2503.xxxxx(2026年3月提交)
论文DriveVLM-RL: Neuroscience-Inspired Reinforcement Learning with Vision-Language Models for Safe and Deployable Autonomous Driving
机构:普渡大学(Zilin Huang, Zihao Sheng等)|提交日期:2026年3月18日
传统强化学习依赖手工设计奖励或稀疏碰撞信号,难以捕捉驾驶安全所需的丰富上下文理解。DriveVLM-RL融合视觉语言模型(VLM)与受神经科学启发的强化学习框架,让智能体在理解复杂场景语义的同时优化安全决策。实验表明,该方法在安全性与可部署性上均优于现有端到端方法。
arXiv: 2503.xxxxx(2026年3月提交)
论文CausalVAD: De-confounding End-to-End Autonomous Driving via Causal Intervention
机构:复旦大学(Jiacheng Tang, Zhiyuan Zhou等)|提交日期:2026年3月19日
端到端驾驶模型学习的是统计相关性而非真正的因果关系,导致模型在复杂场景中利用数据集偏置走捷径,严重影响可靠性与安全性。CausalVAD通过因果干预(Causal Intervention)方法去除混淆因子,让端到端驾驶模型真正理解驾驶行为背后的因果机制,在多个基准测试上显著提升了性能和鲁棒性。
arXiv: 2503.xxxxx(2026年3月提交)
论文VLM-AutoDrive: Post-Training Vision-Language Models for Safety-Critical Autonomous Driving Events
机构:英伟达研究院(Mohammad Qazim Bhat等,含Tsung-Yi Lin、Ming-Yu Liu)|提交日期:2026年3月18日
通用视觉语言大模型(VLM/MLLM)因缺乏驾驶领域与时序对齐而在安全关键场景下表现欠佳。VLM-AutoDrive提出模块化后训练框架,将预训练VLM适配到高保真度安全关键驾驶事件场景,在无需大规模重新训练的情况下显著提升了对紧急制动、非常规目标等极端场景的理解与响应能力。
arXiv: 2503.xxxxx(2026年3月提交)