【CV.SLAM之十七】多传感器融合

目前,多传感器在机器人、汽车、医疗设备上的应用非常广泛,多传感器一方面是为了采集场景中的多维数据;另一方面,也是传感器之间的互补关系。

环境感知

多传感器一个典型应用,环境感知,说白了就是多传感器联合起来干一件事,最终,在算法上,也要将传感器数据融合。那么,接下来,我们就分析一下如何进行数据融合。

数据融合

这里列举几种传感器,GPS定位模块、TOF测距模块、IMU陀螺仪和加速度计模块、相机模块等。
通过这几种传感器,我们可以获取空间上位置信息,前方障碍物距离信息,自身姿态信息和二维场景投影信息。如上所说,我们的目的是环境感知,那么,接下来我们要做的一件事建立自身和环境的关系,包括自身姿态和场景地图。这里不像SLAM那么严肃的话题,我们只是用这个词比较全面。

那么,这么多传感器实现的功能有互相交集,也有独立,各自也有自身局限,比如,普通GPS模块定位精度在1~5m范围,但是,差分之后相对位置就小很多。
我们根据各自传感器特性,建立以相机时间顺序为横轴,三维空间点坐标为纵轴的二维关系图。
如果,把其他传感器作为约束,求解这个整体状态估计,也就是有约束最小二乘问题。
如果,将其他传感器和相机同时作为横轴,进行无约束状态估计,也就是无约束最优问题。这里涉及的理论依据有因子图、贝叶斯理论、MAP,优化方法,比较经典的梯度下降。
还可以通过卡尔曼滤波,或者扩展卡尔曼滤波,实现对下一个状态的估计。
甚至,针对非线性、非高斯的粒子滤波方法。

尽管各种算法层出不穷,但是,离我们认知还是有很大差距,比如,相机通过EPNP计算位姿,就远不如,识别出一个场景中固定的物体,然后,根据视角不同,匹配物体坐标计算出的位姿效率高,精度高。
接下来,我们就谈一个问题,语义理解。

语义理解

如果,我们能像人的直觉识别出场景中静止的物体,那么计算自身位姿将是一件很轻松的事情。
语义这部分就不深入探讨了,相信大家对多传感器融合的思想已经能产生新的火花。

附录

这里写图片描述


北络技术:具有前瞻的团队

猜你喜欢

转载自blog.csdn.net/wangbaodong070411209/article/details/80757277