自动驾驶多模态传感器融合的综述

来源丨计算机视觉深度学习和自动驾驶 

arXiv在2022年2月6日上传的综述论文"Multi-modal Sensor Fusion for Auto Driving Perception: A Survey",作者来自加州洛杉矶分校、上海AI实验室(pjlab)、北京理工(BIT?)和华东师范。

d624bbf423ef51a7517bebb83ba2bbad.png

多模态融合是感知自动驾驶系统的一项基本任务,最近引起了许多研究人员的兴趣。然而,由于原始数据噪声大、信息利用率低以及多模态传感器的无对准,达到相当好的性能并非易事。本文对现有的基于多模态自动驾驶感知任务方法进行了文献综述。分析超过50篇论文,包括摄像头和激光雷达,试图解决目标检测和语义分割任务。与传统的融合模型分类方法不同,作者从融合阶段的角度,通过更合理的分类法将融合模型分为两大类,四小类。此外,研究了当前的融合方法,就潜在的研究机会展开讨论。


最近,用于自动驾驶感知任务的多模态融合方法发展迅速,其从跨模态特征表示和更可靠的模态传感器,到更复杂、更稳健的多模态融合深度学习模型和技术。然而,只有少数文献综述集中在多模态融合方法本身的方法论上,大多数文献都遵循传统规则,将其分为前融合、深度(特征)融合和后融合三大类,重点关注深度学习模型中融合特征的阶段,无论是数据级、特征级还是提议级。首先,这种分类法没有明确定义每个级别的特征表示。其次,它表明,激光雷达和摄像头这两个分支在处理过程中始终是对称的,模糊了激光雷达分支中融合提议级特征和摄像头分支中融合数据级特征的情况。综上所述,传统的分类法可能是直观的,但对于总结最近出现的越来越多的多模态融合方法来说却很落后,这使得研究人员无法从系统的角度对其进行研究和分析。

如图是自动驾驶感知任务的示意图:

7197e72b3834f3186ac21f6fdbe30d11.png

深度学习模型仅限于输入的表示。为了实现该模型,需要在数据输入模型之前,通过一个复杂的特征提取器对原始数据进行预处理。

至于图像分支,大多数现有方法保持与下游模块输入的原始数据相同的格式。然而,激光雷达分支高度依赖于数据格式,这种格式强调不同的特性,并对下游模型设计产生巨大影响。因此,这里将其总结为基于点、基于体素和基于二维映射的点云数据格式,以适应异构深度学习模型。

数据级融合或前融合方法,通过空间对齐直接融合不同模式的原始传感器数据。特征级融合或深度融合方法通过级联或元素相乘在特征空间中混合跨模态数据。目标级融合方法将各模态模型的预测结果结合起来,做出最终决策。

一种新的分类法,将所有融合方法分为强融合和弱融合,如图展示了二者之间的关系:

3ff9d159335683ce07cf03aeb6b75f1e.png

为性能比较,KITTI benchmark的3D检测和鸟瞰目标检测。如下两个表分别给出BEV和3D的KITTI测试数据集上多模态融合方法的实验结果。

2f61cbb628879c59fef461b92b3aaf0f.png

cdb04814d6265b2b5ece4e38a8f811cb.png


根据激光雷达和摄像头数据表示的不同组合阶段,将强融合再分为前融合、深度融合、后融合和非对称融合四类。作为研究最多的融合方法,强融合近年来取得了许多杰出的成就。

如图所示:强融合的每个小类都高度依赖于激光雷达点云,而不是摄像头数据。

306d637663bf1aed82c7b0ad71d139a3.png

前融合。数据级融合是一种通过原始数据级的空间对齐和投影直接融合每个模态数据的方法,与之不同的是,前融合在数据级是融合激光雷达数据,在数据级或特征级则融合摄像头数据。一个例子如图所示:

464da801eb2ddf0c97798edf4ebf8d33.png

在激光雷达分支,点云可以是有反射图、体素化张量、前视图/距离视图/鸟瞰视图以及伪点云等形式。尽管所有这些数据都具有不同的内在特征,与激光雷达主干网高相关,但除了伪点云之外,大多数据通过基于规则的处理生成。此外,与特征空间嵌入相比,该阶段的数据仍然具有可解释性,因此所有这些激光雷达数据表示都直观可视。

对于图像分支,严格的数据级定义应该只包含RGB或灰度等数据,缺乏通用性和合理性。与前融合的传统定义相比,摄像头数据放松为数据级和特征级数据。特别是,这里将有利于三维目标检测的图像语义分割任务结果作为特征级表示,因为这些“目标级”特征与整个任务的最终目标级提议不同。

深度融合。深度融合方法在激光雷达分支的特征级对跨模态数据融合,但在图像分支的数据级和特征级做融合。例如,一些方法使用特征提取器分别获取激光雷达点云和摄像头图像的嵌入表示,并通过一系列下游模块将特征融合到两种模式中。然而,与其他强融合方法不同,深度融合有时以级联方式融合特征,这两种方法都利用原始和高级语义信息。深度融合的一个例子如图所示:

27153eeccd7b80aebc44f7d83b02e152.png

后融合。后融合,也称为目标级融合,指的是融合每个模态中流水线结果的方法。例如,一些后融合方法利用激光雷达点云分支和摄像头图像分支的输出,并基于两种模式的结果进行最终预测。请注意,两个分支提议的数据格式应与最终结果相同,但在质量、数量和精度上有所不同。后融合是一种多模态信息优化最终提议的集成方法(ensemble method)。如图是后融合的一个例子:

f2ea5e0dc6750bdeaecc6678ffbff1fb.png

非对称融合。除了早融合、深度融合和后融合外,一些方法以不同的权限处理跨模态分支,因此融合一个分支的目标级信息和其他分支的数据级或特征级信息,定义为非对称融合。强融合的其他方法将两个分支视为似乎相等的状态,非对称融合至少有一个分支占主导地位,而其他分支提供辅助信息来执行最终任务。如图是非对称融合的一个例子:可能具有提议的相同提取特征,但非对称融合只有来自一个分支的一个提议,而后融合有来自所有分支的提议。

ba3e5a871398f0a3f8ab4aa36bf8a366.png


与强融合不同,弱融合方法不会以多种方式直接从分支融合数据/特征/目标,而是以其他方式操作数据。基于弱融合的方法通常使用基于规则的方法来利用一种模态数据作为监督信号,以指导另一模态的交互。如图展示了弱融合模式的基本框架:

acee3fc477a17556fb3aa1334ba1dc5b.png

有可能图像分支中CNN的2D提议导致原始激光雷达点云出现截锥体(frustum)。然而,与图像特征组合非对称融合不同,弱融合直接将选择的原始激光雷达点云输入到激光雷达主干网,以输出最终提议。

有些工作不能简单地定义为上述任何类型的融合,在整个模型框架中采用多种融合方法,例如深度融合和后融合的结合,也有将前融合和深度融合结合在一起。这些方法从模型设计看存在冗余,这不是融合模块的主流。


待解决的问题有一些分析。

当前的融合模型面临着错对齐和信息丢失的问题。此外,平融合(flat fusion)操作也阻止了感知任务性能的进一步提高。总结一下:

  • 错对齐和信息丢失:传统的前融合和深度融合方法利用外部标定矩阵将所有激光雷达点直接投影到相应的像素,反之亦然。然而,由于传感器噪声,这种逐像素对齐不够精确。因此,可以采取周围的信息作为补充,会产生更好的性能。此外,在输入和特征空间的转换过程中,还存在其他一些信息损失。通常,降维操作的投影不可避免地会导致大量信息丢失,例如,将3-D激光雷达点云映射到2-DBEV图像。将两个模态数据映射到另一个专门为融合设计的高维表示,可以有效地利用原始数据,减少信息损失。

  • 更合理的融合操作:级联和元素相乘这些简单的操作可能无法融合分布差异较大的数据,难以弥合两个模态之间的语义鸿沟。一些工作试图用更复杂的级联结构来融合数据并提高性能。

前视图单帧图像是自动驾驶感知任务的典型场景。然而,大多数框架利用有限的信息,没有详细设计辅助任务来进一步理解驾驶场景。总结一下:

  • 采用更多的潜在信息:现有方法缺乏对多维度和来源信息的有效利用。其中大多数都集中在前视图的单帧多模态数据上。其他有意义的信息还有语义、空间和场景上下文信息。一些模型试图用图像语义分割任务结果作为附加特征,而其他模型可能利用神经网络主干中间层的特征。在自动驾驶场景中,许多明确语义信息的下游任务可能会极大地提高目标检测任务的性能。例如车道检测、语义分割。因此,未来的研究可以通过各种下游任务(如检测车道、交通灯和标志)共同构建一个完整的城市场景的认知框架,帮助感知任务的表现。此外,当前的感知任务主要依赖于忽略时间信息的单一框架。最近基于激光雷达的方法结合了一个帧序列来提高性能。时间序列信息包含序列化的监控信号,与单帧方法相比,它可以提供更稳健的结果。

  • 表征学习的自监督:相互监督的信号自然地存在于从同一个真实世界场景但不同角度采样的跨模态数据中。然而,由于缺乏对数据的深入理解,目前无法挖掘出各模态之间的协同关系。未来的研究可以集中在如何利用多模态数据进行自监督学习,包括预训练、微调或对比学习。通过实施这些最先进的机制,融合模型将加深对数据的理解并取得更好的结果。

域偏差和数据分辨率与真实场景和传感器高相关。这些缺陷阻碍了自动驾驶深度学习模型的大规模训练和实施。

  • 域偏差:在自主驾驶感知场景中,由不同传感器提取的原始数据伴随着域相关特征。不同的摄像头系统有其光学特性,而激光雷达可能因机械激光雷达和固态激光雷达而不同。更重要的是,数据本身可能是有域偏差的,例如天气、季节或地理位置。因此,检测模型无法顺利适应新的场景。由于泛化失败,这些缺陷妨碍大规模数据集的收集和原始训练数据可重用性。

  • 分辨率冲突:来自不同模式的传感器通常具有不同的分辨率。例如,激光雷达的空域密度明显低于图像的空域密度。无论采用何种投影方法,由于无法找到对应关系,一些信息被消除。这可能导致模型被一个特定模态的数据所主导,无论是特征向量的分辨率不同还是原始信息的不平衡。

本文仅做学术分享,如有侵权,请联系删文。

干货下载与学习

后台回复:巴塞罗自治大学课件,即可下载国外大学沉淀数年3D Vison精品课件

后台回复:计算机视觉书籍,即可下载3D视觉领域经典书籍pdf

后台回复:3D视觉课程,即可学习3D视觉领域精品课程

3D视觉精品课程推荐:

1.面向自动驾驶领域的多传感器数据融合技术

2.面向自动驾驶领域的3D点云目标检测全栈学习路线!(单模态+多模态/数据+代码)
3.彻底搞透视觉三维重建:原理剖析、代码讲解、及优化改进
4.国内首个面向工业级实战的点云处理课程
5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码讲解
6.彻底搞懂视觉-惯性SLAM:基于VINS-Fusion正式开课啦
7.彻底搞懂基于LOAM框架的3D激光SLAM: 源码剖析到算法优化
8.彻底剖析室内、室外激光SLAM关键算法原理、代码和实战(cartographer+LOAM +LIO-SAM)

9.从零搭建一套结构光3D重建系统[理论+源码+实践]

10.单目深度估计方法:算法梳理与代码实现

11.自动驾驶中的深度学习模型部署实战

12.相机模型与标定(单目+双目+鱼眼)

13.重磅!四旋翼飞行器:算法与实战

14.ROS2从入门到精通:理论与实战

重磅!计算机视觉工坊-学习交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有ORB-SLAM系列源码学习、3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、深度估计、学术交流、求职交流等微信群,请扫描下面微信号加群,备注:”研究方向+学校/公司+昵称“,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进去相关微信群。原创投稿也请联系。

b37494a16ca8c844665db08e926a98dd.png

▲长按加微信群或投稿

453db6c63372013a7d18357b73522194.png

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列三维点云系列结构光系列手眼标定相机标定、激光/视觉SLAM、自动驾驶等)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答五个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近4000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

73587c8b4522c05c085b4f1780ad809f.png

 圈里有高质量教程资料、可答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~

猜你喜欢

转载自blog.csdn.net/qq_29462849/article/details/124113937