✨ CVPR 放榜啦!
作为计算机视觉领域的顶会,每年 CVPR 都会涌现大量自动驾驶方向的前沿研究,涵盖感知、定位、预测、规划、端到端驾驶等核心模块,为行业技术突破提供重要参考。
为方便大家快速梳理重点、高效查阅,我们整理了 CVPR 自动驾驶相关论文清单(List 1),聚焦近期公开的优质成果。后续将持续跟进,不断更新论文列表,欢迎大家收藏、转发,一起追踪前沿技术动态~
📚 CVPR 自动驾驶论文清单(List 1)
(以下论文均为 CVPR 收录,部分暂未公开的论文将在更新时补充)
核心亮点:提出LFG无标签教师引导框架,基于无姿态在线第一视角驾驶视频学习自动驾驶表示,结合前馈架构与轻量级自回归模块,利用多模态监督信号联合预测点图、相机姿态等信息,仅用单目相机就在NAVSIM基准测试中超越多相机和激光雷达基线,可作为视频中心的自动驾驶基础模型
原文链接:https://arxiv.org/abs/2602.22091
项目链接:暂未公开
核心亮点:提出LiREC-Net无目标学习型多传感器标定网络,在统一框架中联合标定激光雷达、RGB和事件数据等多传感器模态对,引入共享激光雷达表示以减少冗余计算、提升效率,在KITTI和DSEC数据集上表现优于双模态模型,为三模态标定建立新基准。
原文链接:https://arxiv.org/abs/2602.21754
项目链接:暂未公开
核心亮点:提出HorizonForge统一框架,将场景重建为可编辑的高斯Splats和网格,支持细粒度3D操控及语言驱动的车辆插入,结合噪声感知视频扩散过程保证时空一致性,同时提出HorizonSuite基准用于标准化评估,相比现有最优方法,用户偏好度提升83.4%,FID指标提升25.19%
原文链接:https://arxiv.org/abs/2602.21333
项目链接:https://horizonforge.github.io/
4. 论文标题:NorD:一种无需推理即可驱动的高效数据视觉-语言-动作模型
核心亮点:提出了NORD(No Reasoning for Driving) 方法,在仅使用不足 60% 数据且完全无需推理标注、Token 量减少 3 倍的条件下仍取得具有竞争力的性能。研究发现标准 GRPO 算法在小数据、无推理标注的训练场景中受难度偏差影响难以有效提升效果,为此引入Dr. GRPO算法缓解该问题,最终在 Waymo 和 NAVSIM 数据集上验证了 NORD 的有效性,在大幅降低数据与标注成本、消除推理开销的同时,实现了更高效的自动驾驶端到端系统。
原文链接:https://arxiv.org/abs/2602.21172
项目链接:https://nord-vla-ai.github.io/
5. VGGDrive:利用跨视图几何接地增强视觉语言模型以实现自动驾驶
核心亮点:提出VGGDrive架构,将成熟3D基础模型的跨视图几何接地能力融入视觉语言模型(VLMs),解决VLMs缺乏跨视图3D几何建模能力的问题;引入即插即用的跨视图3D几何使能器(CVGE),通过分层自适应注入机制衔接3D与2D视觉特征,在5个自动驾驶基准测试中提升基础VLM性能。
原文链接:https://arxiv.org/abs/2512.16919
原文链接:https://arxiv.org/abs/2512.06112
原文链接:https://arxiv.org/abs/2512.20563
本清单将持续更新,后续将推出 List 2、List 3,补充更多 CVPR 自动驾驶相关论文;
若有遗漏的优质论文、论文链接更新、代码开源等信息,欢迎在评论区留言补充;
关注公众号,第一时间获取后续论文清单更新通知,追踪 CVPR 自动驾驶前沿动态。
转发给身边做自动驾驶、计算机视觉的朋友,一起学习进步~
另外,欢迎各位小伙伴补充遗漏的CVPR自动驾驶相关论文,一起完善这份清单,共同学习前沿技术~

END
730 万条驾驶交互数据!同济打造自动驾驶 VLA 模型专属增强数据集,破解复杂路况推理难题
[T-ASE] 时空有向图赋能自动驾驶:实现混行交通下智能协商决策
东南 SG-CADVLM:上下文感知解码赋能,让自动驾驶危情模拟更真实
[ ICRA 2026 ] 车辆感知加持,3D 行人姿态预测新成果
ScenePilot:3847 小时跨 63 国驾驶数据,打造自动驾驶 VLMs 评估新标杆
清华 & 现代汽车 音频-情绪-视觉协同:EchoVLA 的多模态 CoT 推理与自动驾驶优化
浙大 & 港大 AutoDriDM: 给自动驾驶 “AI 大脑” 做决策考试,VLMs 的能力边界被说透了!
【TR-C】南理工 & 华科:博弈 + 稀疏性双 buff!自动驾驶极端场景生成算法,精准戳破算法漏洞
复旦 & 理想 & 同济等 SGDrive: 用场景 - 智能体 - 目标三层认知,让 AI 像老司机一样思考
慕尼黑工业提出:聊天控车的LLM 驱动框架,让自动驾驶语音指令精准落地!
CAR 实验室 & 特华拉 DAVOS:毫秒级响应 + 隐私防护双 buff,让自动驾驶又快又安全
清华 & 港中文 & 滴滴 ColaVLA:用 latent 推理 + 并行解码实现高效安全驾驶
西交 & 南理工 HOCD:融合司机意图与状态的协作驾驶方案,冲突率大降 2.4+
华科 & 小米 DriveLaw:让自动驾驶兼具场景想象力与行驶稳定性
港理工 UrbanV2X 多传感器车路协同数据集:3 大场景、含 7 类车载 + 3 类路侧设备,破解城市峡谷自动驾驶定位难题

分享

收藏

点赞

在看