多传感器融合(一)

一.概述

“传感器融合技术”号称自动驾驶中的核心技术。

传感器是汽车感知周围的环境的硬件基础,在实现自动驾驶的各个阶段都必不可少。

自动驾驶离不开感知层、控制层和执行层的相互配合。摄像头、雷达等传感器获取图像、距离、速度等信息,扮演眼睛、耳朵的角色。

 

 

 控制模块分析处理信息,并进行判断、下达指令,扮演大脑的角色。车身各部件负责执行指令,扮演手脚的角色。而环境感知是这一切的基础, 因此传感器对于自动驾驶不可或缺。

二.多传感器融合的必要性

为什么一定要多传感器融合呢?主要是扬长避短、冗余设计,提高整车安全系数。多传感器融合系统所实现的功能要远超这些独立系统能够实现的功能总和。使用不同的传感器种类可以在某一种传感器全都出现故障的环境条件下,额外提供一定冗余度。这种错误或故障可能是由自然原因(诸如一团浓雾)或是人为现象(例如对摄像头或雷达的电子干扰或人为干扰)导致。各传感器优缺点如下:

  • 相机:对目标的颜色和纹理比较敏感,可以完成目标分类、检测、分割、识别等任务,但是不能得到精确的探测距离,而且易受光照、天气条件的影响。
  • LiDAR可以获得目标精确的3D信息,检测范围也能够到达150米。对光照不敏感,晚上也可以正常工作。但是角分辨率大,目标稀疏,无法获得目标纹理,分类不准,而且在雨、雾、雪等恶劣天气中,性能会下降。对扬尘、水雾也比较敏感,易产生噪点。
  • radar可以提供精确的距离和速度信息,探测距离也比较远,可以全天候工作,但分辨率较低,无法提供物体高度信息。

相关传感器对比如下表:

 

 

 三.多传感器融合的先决条件

众多的传感器装在同一辆车上,如nuscenes中使用了6个camera、1个lidar、5个radar,使用同一个系统来采集并处理数据,为了将他们规范,我们需要对这些传感器统一坐标系和时钟,目的就是为了实现三同一不同:同一个目标在同一个时刻出现在不同类别的传感器的同一个世界坐标处。 

统一时钟

在这里要做的就是同步不同传感器的时间戳:
GPS时间戳的时间同步方法: 这个需要看传感的硬件是否支持该种方法,如果支持则传感器给出的数据包会有全局的时间戳,这些时间戳以GPS为基准,这样就使用了相同的时钟,而非各自传感器的时钟了。

但是还有一个问题,不同传感器的数据频率是不同的,如lidar为10Hz,camera为25/30Hz,那不同传感器之间的数据还是存在延迟,如下图所示。虽然可以通过找相邻时间戳的方法找到最近帧,但是如果两个时间戳差距较大,障碍物又在移动,最终会导致较大的同步误差

 

 如图:在 T1 时刻,sensor
2产生了一个数据,如果要进行时间同步,我们需要查找对应时刻的sensor 1和sensor 3的数据,而实际查找的方式就是找出与sensr 2时间差最近的传感器数据包。

硬同步方法:这种方法可以缓解查找时间戳造成的误差现象。该方法可以以激光雷达作为触发其它传感器的源头,当激光雷达转到某个角度时,才触发该角度的摄像头,这可以大大减少时间差的问题。这套时间同步方案可以做到硬件中,这样可以大大降低同步误差,提高数据对齐效果

统一坐标系

统一坐标系有两步,一是运动补偿,二是传感器标定

运动补偿主要针对长周期的传感器,如lidar,周期为100ms。由于所有的传感器都装在车上,车是运动的刚体。因此传感器在采集数据时,周期开始的时间点和结束时间点车辆是处于不同位置的,导致不同时刻采集的数据所处坐标系不同,因此需要根据车体的运动对传感器采集的数据进行运动补偿。如下图所示:虚线部分可以认为是世界坐标系,红色点代表一个静态的障碍物,在坐标系中有一个稳定的坐标(5,5)。蓝色部分代表自动驾驶车自己的局部坐标系,也就是说世界坐标系的(4,0)为局部坐标系的原点。在T+1时刻,这个局部坐标系移动到了(6,0)的位置,也就是自动驾驶车沿着X方向向前移动了2。也就是说,在T时刻,障碍物的在局部坐标系下的坐标是(1,5),而在T+1时刻,它的坐标变为了(-1,5)。

 

 

 这个问题解决起来比较简单,因为自动驾驶车拥有比较准确的实时定位信息,它可提供T和T+1两个时刻内,车本身的姿态差距,利用姿态差,我们就可以比较容易补偿自身移动了多少。

传感器标定分为内参标定和外参标定,内参标定,解决的是单独的每个传感器与世界坐标系间的变换;外参标定是在世界坐标系下,解决的不同传感器间的变换。传感器外参校准依赖于传感器的精确内参校准。

四.融合方法

经常可以看到的不同的融合方法,这里仅做简单介绍,后续会专门介绍相关方法。

经过以上几步,可以拿到的信息有:做好运动补偿及时间同步的传感器源数据、传感器内参、传感器外参,有了这些信息后,我们可以做相应的融合方法了。到底如何做呢?下面举两个例子:

相机和lidar融合:激光雷达数据是包含了明确的(x,y,z)数据的3D观测,通过标定参数与照相机本身的内参,多传感器深度融合可以实现把3D点投到图像上,图像上的某些像素也就打上了深度信息,帮助感知系统进行基于图像的分割或者训练深度学习模型。

毫米波雷达和激光雷达融合:毫米波雷达和激光雷达的融合方式比较简单。在笛卡尔坐标系下,它们拥有完整的(
x,y )方向的信息。因此在笛卡尔坐标系下,激光雷达和毫米波雷达可以实现基于距离的融合。另外,毫米波雷达还可以探测到障碍物速度,而激光雷达通过位置的追踪,也会得到对障碍物速度的估计,对这些速度的信息进行融合,更能帮助筛选错误的匹配候选集。

根据数据在整个流程中融合的不同位置,可以分为前融合和后融合

前融合

 

 

 如上图所示,在原始层把数据都融合在一起,融合好的数据就好比是一个Super传感器,而且这个传感器不仅有能力可以看到radar,还有能力可以看到摄像头或者RGB,也有能力看到LiDAR的三维信息,就好比是一双超级眼睛。方法上只有一个感知的算法,对融合后的多维综合数据进行感知。

后融合

 

 

  如上图所示,每个传感器各自独立处理生成的目标数据;每个传感器都有自己独立的感知,比如激光雷达有激光雷达的感知,摄像头有摄像头的感知,毫米波雷达也会做出自己的感知。当所有传感器完成目标数据(如目标检测、目标速度预测)生成后,再使用一些传统方法融合所有传感器的结果,得到最终结果。

前融合,还是后融合?

到底哪种融合方式好呢?这里举个例子:假设在你手上有一个手机,激光雷达只能看到手机的一个角,摄像头只能看到第二个角,而毫米波雷达可以看到第三个角,那么大家可以想象,如果使用后融合算法,由于每个传感器只能看到它的一部分,这个物体非常有可能不被识别到,最终会被滤掉。而在前融合中,由于它是集合了所有的数据,也就相当于可以看到这个手机的三个角,那对于前融合来说,是非常容易能够识别出这是一台手机的。

五.解决GPS误差多等问题

传感器融合技术就是给汽车导航的,用来解决GPS导航误差多的问题。

GPS误差多,传感器融合技术来帮忙

都知道GPS是当前行车定位不可或缺的技术,但是由于GPS的误差、多路径,以及更新频率低等问题,不可以只依赖于GPS进行定位。相反,民用传感器拥有很高的更新频率,可以跟GPS形成很好的互补。使用传感器融合技术,可以融合GPS与惯性传感器数据,各取所长,以达到较好的定位效果。

简单的传感器融合技术

简单地说,传感器融合就是将多个传感器获取的数据、信息集中在一起综合分析以便更加准确可靠地描述外界环境,从而提高系统决策的正确性。

 

 

 传感器各有优劣,难以互相替代,未来要实现自动驾驶,是一定需要多个传感器相互配合共同构成汽车的感知系统的。不同传感器的原理、功能各不相同,在不同的使用场景里可以发挥各自优势。

多传感器融合是人工智能未来趋势

多个同类或不同类传感器分别获得不同局部和类别的信息,这些信息之间可能相互补充,也可能存在冗余和矛盾,而控制中心最终只能下达唯一正确的指令,这就要求控制中心必须对多个传感器所得到的信息进行融合,综合判断。

随着机器人技术的不断发展,智能化已成为机器人技术的发展趋势,而传感器技术则是实现智能化的基础之一。

 

 

 多传感器融合技术理念

由于单一传感器获得的信息有限,且还要受到自身品质和性能的影响,因此智能机器人通常配有数量众多的不同类型的传感器,以满足探测和数据采集的需要。

若对各传感器采集的信息进行单独、孤立地处理,不仅会导致信息处理工作量的增加,而且,割断了各传感器信息间的内在联系,丢失了信息经有机组合后可能蕴含的有关环境特征,造成信息资源的浪费,甚至可能导致决策失误。为了解决上述问题人们提出了多传感器融合技术。

 

 

 多传感器融合又称多传感器信息融合,有时也称作多传感器数据融合,于1973年在美国国防部资助开发的声纳信号处理系统中被首次提出,它是对多种信息的获取、表示及其内在联系进行综合处理和优化的技术。它从多信息的视角进行处理及综合,得到各种信息的内在联系和规律,从而剔除无用的和错误的信息,保留正确的和有用的成分,最终实现信息的优化,也为智能信息处理技术的研究提供了新的观念。

六.到底有多精确

 

 

 多传感器融合技术有多精确

简单的传感器融合不外乎就是每个传感器的数据能大致在空间跟时间上能得到对齐。而整个多传感器融合技术的核心就在于高精度的时间以及空间同步。精度到什么量级呢?

举个例子,比如时间上能得到10的-6次方,空间上能得到在一百米外3到5厘米的误差,这是一个典型的技术指标。

当然,多传感器同步技术的难度与时间和空间的要求是一个指数级的增加。在百米外能得到3cm的空间精度,换算成角度是0.015度左右。

 

 

 大家也知道在无人驾驶当中,毫米波雷达、相机、激光雷达和超声波都是完全不同的传感器,让他们在时域跟空域上得到这样的精度是非常难的,需要对机器人技术以及机器学习优化技术有非常深的理解。

自动泊车、公路巡航控制和自动紧急制动等自动驾驶汽车功能在很大程度上也是依靠传感器来实现的。

多传感器融合技术使用方式

重要的不仅仅是传感器的数量或种类,它们的使用方式也同样重要。目前,大多数路面上行驶车辆内的ADAS都是独立工作的,这意味着它们彼此之间几乎不交换信息。只有把多个传感器信息融合起来,才是实现自动驾驶的关键。

现在路面上的很多汽车,甚至是展厅内的很多新车,内部都配备有基于摄像头、雷达、超声波或LIDAR等不同传感器的先进驾驶员辅助系统(ADAS)。

 

 

 这些系统的数量将会随着新法案的通过而不断增加,例如在美国,就有强制要求安装后视摄像头的法案。此外,诸如车险打折优惠和美国公路交通安全管理局(NHTSA)、欧洲新车安全评鉴协会(Euro-NCAP)等机构做出的汽车安全评级正在使某些系统成为汽车的强制功能;另一方面,这也助长了消费者对它们的需求。

ADAS如何实现突破限制

目前,大多数路面上行驶车辆内的ADAS都是独立工作的,这意味着它们彼此之间几乎不交换信息。(没错,某些高端车辆具有非常先进的自动驾驶功能,不过这些功能还未普及)。后视摄像头、环视系统、雷达和前方摄像头都有它们各自的用途。通过将这些独立的系统添加到车辆当中,可以为驾驶员提供更多信息,并且实现自动驾驶功能。不过,你还可以突破限制,实现更多功能——参见图1。

 

 

 ADAS以汽车内单个、独立的功能存在。

仅仅通过多次使用相同种类的传感器无法克服每种传感器的缺点。反之,需要将来自不同种类传感器的信息组合在一起。工作在可见光谱范围内的摄像头CMOS芯片在浓雾、下雨、刺眼阳光和光照不足的情况下会遇到麻烦。而雷达缺少目前成像传感器所具有的高分辨率。可以在每种传感器中找到诸如此类的优缺点。

版权声明:本文为wujianming-110117原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/wujianming-110117/p/12963151.html