如今,越来越多的新车,都搭载了不同等级的自动驾驶功能,从基础的自适应巡航、车道保持,到高阶的城市领航辅助、无图自动驾驶,汽车能自己跟车、自己刹车、自己变道,甚至能自己识别路上的行人、电动车、障碍物,提前减速避让,哪怕司机分神了,也能避免事故的发生。很多人都会好奇:自动驾驶的汽车,没有眼睛,到底是怎么 “看见” 路上的行人和障碍物的?它怎么知道前面是车、是人、还是红绿灯?甚至能在暴雨、大雾的天气里,依然精准识别,不会出错?
很多人对自动驾驶的认知,觉得就是在车上装了几个摄像头,像人眼一样看路,然后控制车辆行驶。但事实上,自动驾驶汽车的 “眼睛”,远比我们想象的要复杂得多,它是一套由摄像头、毫米波雷达、激光雷达、超声波雷达组成的多传感器融合感知系统,不同的传感器各司其职,互相配合、互相补充,再通过人工智能算法,把这些传感器收集到的信息,融合在一起,精准识别出路上的车辆、行人、非机动车、交通标志、障碍物,甚至能预判它们的下一步动作,最终实现自动驾驶。
想要搞懂自动驾驶汽车怎么 “看见” 世界,我们先要明白,自动驾驶的核心,分为三个部分:感知、决策、控制。感知,就是汽车的 “眼睛和耳朵”,负责收集周围环境的所有信息;决策,就是汽车的 “大脑”,负责根据感知到的信息,做出判断,决定是加速、刹车、还是变道;控制,就是汽车的 “手脚”,负责执行决策的指令,控制油门、刹车、方向盘。而感知,是整个自动驾驶的基础,只有精准、全面地 “看见” 周围的环境,才能做出正确的决策,保障行车安全。
自动驾驶汽车的感知系统,主要由四大类传感器组成,它们就像四种不同的 “眼睛”,能看到不同的东西,各自有各自的优势和短板,最终通过融合算法,形成一个完整、精准的环境感知模型。我们先从最基础、最常用的传感器说起:摄像头,也就是我们常说的视觉感知方案,这是自动驾驶汽车最核心的传感器之一,也是最接近人眼的传感器。
车载摄像头,和我们手机里的摄像头原理一样,通过镜头拍摄车外的画面,然后把画面传输给车载的计算平台,通过人工智能深度学习算法,对画面里的内容进行识别和分类。算法能精准地识别出画面里的汽车、行人、非机动车、车道线、交通信号灯、交通标志、路面的坑洼和障碍物,甚至能识别出交通信号灯的颜色、标志上的文字,还能通过双目摄像头,计算出目标物体和车辆之间的距离、速度。
摄像头的优势非常明显:它成本低、分辨率高,能识别物体的颜色、形状、纹理、文字,是识别交通标志、红绿灯、车道线的最佳传感器,而且能通过图像,对物体进行精准的分类,知道前面的是小汽车、大货车、还是行人,这是其他传感器很难做到的。我们常听到的纯视觉自动驾驶方案,就是以摄像头为核心传感器,通过多个摄像头,组成 360 度的环视视野,实现对周围环境的完整感知。
但摄像头也有自己的短板:它非常依赖光线和天气环境,在晚上、逆光、暴雨、大雾、大雪的天气里,摄像头的识别精度会大幅下降,甚至无法识别;而且,单目摄像头对距离的测量精度不高,很容易出现误差,双目摄像头虽然能精准测距,但对算法的要求极高。所以,纯视觉方案,需要极强的人工智能算法和海量的数据训练,来弥补硬件的短板。
为了弥补摄像头的短板,自动驾驶汽车上,还会配备第二种核心传感器:毫米波雷达。毫米波雷达,是通过发射和接收毫米波,来探测目标物体的传感器。毫米波是一种电磁波,波长在 1-10 毫米之间,它的传播速度是光速,雷达发射出毫米波,毫米波遇到障碍物会反射回来,雷达通过计算毫米波发射和接收的时间差,就能精准算出目标物体和车辆之间的距离,再通过毫米波的频率变化,算出目标物体的速度,也就是我们常说的多普勒效应。
毫米波雷达的优势,和摄像头正好互补:它不受光线、天气的影响,无论是白天黑夜、还是暴雨、大雾、大雪天气,都能正常工作,精准探测到目标物体的距离和速度,而且成本低、技术成熟,能在恶劣天气里,给自动驾驶提供最基础的安全保障。同时,毫米波雷达对运动的物体极其敏感,能精准测出几百米外车辆的速度和距离,是自适应巡航、自动紧急制动功能的核心传感器。
但毫米波雷达也有自己的短板:它的分辨率很低,无法识别物体的形状、颜色、类别,只能知道 “前面有一个物体,距离多远、速度多快”,但不知道这个物体是车、是人、还是路牌,也无法识别车道线、红绿灯和交通标志。而且,毫米波雷达对静态的障碍物识别能力很弱,很容易把路面的井盖、路牌、路边的护栏,当成无关的静态物体过滤掉,无法识别路面的静止障碍物。
这时候,就需要第三种传感器登场了:激光雷达,也就是我们常说的 LiDAR,它是如今高阶自动驾驶最核心的传感器,被称为自动驾驶的 “千里眼”。激光雷达的原理,和毫米波雷达类似,只不过它发射的不是毫米波,而是激光束,也就是波长极短的红外线。激光雷达会高速旋转,向四面八方发射无数束激光,激光遇到障碍物会反射回来,雷达通过计算激光发射和接收的时间差,就能精准算出周围每一个物体的距离、方位、高度、形状,最终生成一个周围环境的三维点云模型,把整个世界,以三维的形式,精准地还原出来。
激光雷达的优势,是极其精准的测距能力和三维建模能力,它的测距精度能达到厘米级,哪怕是几百米外的一个易拉罐,也能精准探测到,而且能生成周围环境的三维模型,精准识别出物体的形状、大小、位置,哪怕是静态的障碍物,也能精准识别,不会出现漏检。同时,它也不受光线的影响,白天黑夜都能正常工作,抗干扰能力极强。
简单来说,摄像头只能看到二维的平面画面,而激光雷达能看到三维的立体世界,能精准知道前面的物体有多远、多大、是什么形状,甚至能识别出路面的坑洼、凸起,这对高阶自动驾驶来说,是至关重要的。如今,绝大多数的高阶自动驾驶车型,都会搭载多个激光雷达,组成 360 度的三维感知视野,保障自动驾驶的安全。
当然,激光雷达也有短板:它的成本很高,而且在暴雨、大雾、大雪的天气里,激光会被空气中的雨滴、雾气散射,探测距离和精度会有所下降;同时,它无法识别颜色和文字,不能识别红绿灯和交通标志,依然需要摄像头来配合。
除了这三种核心传感器,自动驾驶汽车上,还有第四种传感器:超声波雷达,也就是我们常说的倒车雷达。超声波雷达,通过发射超声波,来探测近距离的障碍物,它的探测距离很短,通常只有几米,但是成本极低,能精准探测到近距离的障碍物,哪怕是很小的物体,也能识别到。它主要用在倒车、泊车、低速行驶的场景里,识别车辆周围的障碍物,实现自动泊车、低速避障的功能,是自动驾驶感知系统的最后一道防线。
讲到这里,我们就能明白,自动驾驶汽车的感知系统,为什么要采用多传感器融合的方案了。摄像头能识别物体的类别、颜色、文字,毫米波雷达能精准测速、在恶劣天气里正常工作,激光雷达能精准测距、构建三维环境模型,超声波雷达能识别近距离的障碍物,它们各自的优势互补,短板互相弥补,通过人工智能算法,把所有传感器收集到的信息融合在一起,形成一个完整、精准、可靠的环境感知模型。
比如,在晴朗的白天,摄像头和激光雷达能精准识别路上的行人和车辆,毫米波雷达能测出它们的速度,预判它们的下一步动作;在暴雨、大雾的天气里,摄像头和激光雷达的性能下降,毫米波雷达依然能精准探测到前方车辆的距离和速度,保障车辆不会追尾;在低速泊车的时候,超声波雷达能精准识别周围的障碍物,让车辆安全地停进车位。
更厉害的是,如今的自动驾驶系统,不仅能 “看见” 当下的环境,还能通过人工智能算法,预判周围车辆、行人的下一步动作,比如预判旁边的车要变道、前面的行人要过马路,提前做出减速、避让的决策,就像一个经验丰富的老司机,能提前预判风险,保障行车安全。
从最初的倒车雷达,到如今能实现城市领航的高阶自动驾驶,汽车的感知技术,发生了翻天覆地的变化。这些摄像头、雷达,就像汽车的无数双眼睛,360 度无死角地观察着周围的环境,哪怕司机分神了,它们也能时刻保持警惕,识别路上的风险,避免事故的发生。了解了自动驾驶汽车的感知原理,我们就能明白,自动驾驶的安全,从来都不是靠单一的传感器,而是靠多传感器融合的冗余设计,和海量数据训练的人工智能算法,它们共同组成了汽车的 “眼睛和大脑”,守护着我们的行车安全。
来源: 同行视界