技术进步正推动产品创新,同时也给设计师带来了新的挑战,汽车行业尤为如此。整车厂(OEM)正致力于将 L2 级高级驾驶辅助系统(ADAS)升级至 L3 和 L4 级,长期目标是实现完全自动驾驶。目前,L3 级乘用车已在多个地区投入使用,L4 级自动驾驶出租车也已在多个城市开展试点。然而,要实现这类车辆的大规模市场化部署,仍需解决诸多商业、物流和监管层面的挑战。
汽车制造商面临的一大核心挑战,是弥合概念验证演示与稳健、可重复、大规模量产之间的差距。量产系统必须具备稳定、安全、可靠且成本效益高的特点。
系统开发主要有两种基本方法:
目前,后一种方法正受到主流整车厂的青睐。
先进的高级驾驶辅助系统和自动驾驶技术,要求车辆能精准感知周围环境,并根据 “所见” 做出恰当决策。感知精度越高,驾驶决策的合理性和安全性就越强。因此,设计初期的关键决策之一,是确定车辆周身搭载的传感器数量和类型。常见的传感方式包括摄像头(图像传感器)、毫米波雷达和激光雷达(LiDAR),三者各有优劣。
如今,摄像头和激光雷达的数据处理已基本迁移至集中式域控制器,而当前许多毫米波雷达解决方案仍采用前端处理模式 —— 先在雷达端生成检测目标,再将其发送至域控制器与摄像头感知数据进行后期融合,而非对原始数据进行集中处理。本文将重点阐述 4D 成像毫米波雷达采用集中式处理的核心逻辑,并探讨安霸(Ambarella)CV3 系列芯片在该领域的技术优势。
确定车辆的传感器需求后,需进一步做出一系列架构决策,其中包括传感器数据应在前端处理,还是在域控制器中集中处理。
传统 3D 雷达成本较低,但感知能力有限。其典型架构是通过毫米波雷达前端计算生成检测目标,再在域控制器中与基于摄像头的感知数据进行后期融合。由于雷达前端的预处理会丢失原始信息,传统 3D 雷达对整体感知的贡献度被削弱;随着视觉感知技术的进步,3D 雷达甚至面临被边缘化的风险。
毫米波雷达技术的发展催生了 4D 成像雷达,相较于传统 3D 雷达有了显著提升:新增高度维度、探测距离更远、点云密度更高、角分辨率更优、静态目标检测更可靠,且误检率和漏检率更低。这些性能提升通常源于更复杂的调制方案,以及更先进的点云和跟踪算法,因此 4D 成像毫米波雷达往往需要专用的雷达处理芯片才能实现高性能。目前市场上部分设计在雷达模块中加入数字信号处理器(DSP)或现场可编程门阵列(FPGA)用于前端计算,虽能较 3D 雷达提升性能,但会增加成本,且不利于大规模部署。
集中式处理具备明显优势:所有传感方式的原始数据将在同一节点融合,确保融合过程中关键信息不丢失;雷达模块无需前端计算单元,结构更简化,尺寸、功耗和成本均得以降低(许多雷达安装在车辆保险杠后方,此举也能降低轻微碰撞后的维修成本)。
此外,集中式处理允许开发者根据天气、路况和驾驶场景,实时动态调整雷达与摄像头数据的权重占比,优化感知效果。例如:高速行驶且天气恶劣时,可让毫米波雷达主导感知;城市拥堵路段低速行驶时,摄像头在车道线识别、交通标志识别和场景理解方面更具优势;激光雷达则可辅助实现通用障碍物检测和夜间自动紧急制动(AEB)。这种动态传感器配置既能节省计算资源、降低能耗,又能提升感知精度和安全性。
前端处理型成像雷达
集中式域控制器雷达处理
更强效的集中式计算:提升角分辨率、数据密度和灵敏度。
可根据场景动态为多个雷达分配计算资源,提高资源利用率和感知效果。
雷达前端成本更低:前端模块仅作为纯传感器,不含计算单元。
支持 4D 雷达数据与摄像头数据的深度融合。
随着电动汽车的普及,能效和单次充电续航里程已成为车辆各子系统的核心考量因素。集中式人工智能域控制芯片(SoC)在能效方面具备优势 —— 多芯片域控制器功耗较高,会缩短车辆续航;芯片产生的多余热量可能需要主动冷却,部分架构甚至需要液冷,这会增加车辆的尺寸、成本和重量,进一步降低电池续航。
基于人工智能的驾驶软件正迅速成为系统核心组件,其实现方式会影响芯片选型以及系统开发的时间和成本。运行效率至关重要:要在不牺牲精度的前提下,以最小的开发成本和能耗运行现代神经网络,需谨慎选择硬件,并确保中间件、设备驱动程序和人工智能工具链的良好支持,从而缩短开发周期、降低风险。
车辆交付后,需通过软件更新修复问题或新增功能。与单独更新多个分散的前端模块相比,单域控制器集中式架构简化了远程在线升级(OTA)流程,后者成本更高、操作更复杂。这一升级方式也使得系统级网络安全在设计阶段的重要性愈发凸显。
芯片选型会影响车辆设计的多个方面,以及整体自动驾驶能力。比如安霸CV3-AD685 定位为高算力集中式域控制人工智能芯片,专为 L3/L4 级驾驶辅助系统设计,支持对 4D 成像毫米波雷达原始数据进行集中处理和深度融合。
传统 4D 成像雷达采用固定调制方案,性能需在各维度间权衡;而新兴的 4D 雷达设计将稀疏天线阵列与人工智能算法相结合(如虚拟孔径成像技术 VAI),能动态学习并适配环境,打破了调制方案带来的性能制约,可将 4D 成像雷达的分辨率提升一个数量级。此举在提高角分辨率、系统精度和整体性能的同时,还能减少天线数量、缩小尺寸、降低功耗预算、减少数据传输需求,并控制成本。
CV3 系列芯片支持雷达前端直接向域控制器传输原始(RAW)雷达数据,并在芯片内部完成必要的雷达计算,包括高质量点云生成、处理和跟踪。其中,CV3-AD685 搭载专用 4D 成像雷达处理硬件,可高效处理多个雷达的并发数据流。
该芯片集成了多种核心组件:神经网络处理器(NVP)、用于加速通用机器视觉算法和毫米波雷达处理的通用向量处理器(GVP)、高性能图像信号处理器(ISP)、12 个 ARM Cortex-A78AE 内核和多个 R52 CPU、立体视觉和稠密光流引擎,以及用于环视等 3D 渲染的图形处理器(GPU)。
CV3-AD 架构专为汽车驾驶辅助负载设计,区别于以通用图形处理器(GPU)为核心的架构(后者优化目标是广泛的并行计算)。针对驾驶辅助任务,CV3 架构相比许多竞品的通用型设计,具备更高的能效比和更低的功耗。
近年来,驾驶辅助技术取得了长足进步,多项高级驾驶辅助功能已成为主流,新功能仍在不断涌现。当前行业面临的核心挑战,是推动 L3 和 L4 级自动驾驶原型车走向量产。
实现这一突破的关键在于传感器选型、车辆架构设计和域控制器芯片选择。采用专为集中式传感器融合设计的处理器,结合稀疏毫米波雷达阵列等人工智能驱动的创新技术,可实现毫米波雷达数据的集中处理,以及与摄像头数据的深度融合。这些性能和灵敏度的提升,不仅能降低对激光雷达的依赖、降低系统成本,还能增强车辆的环境感知能力。