2021年十大开源SLAM算法整理

2021年度盘点:十大最佳开源SLAM算法!_哔哩哔哩_bilibili

2021年底盘点:十大最佳开源SLAM算法

1.TANDEM
该方法由慕尼黑工业大约Daniel Cremers团队提出来的纯视觉SLAM,该框架在圣诞节前开源。视频中使用的事RealsenseD455相机,带有深度传感器和IMU。但是该团队大佬们不用这些,仅仅使用单目相机,实现实时跟踪和稠密重建。

该工作主要有三个创新点:

1)一种新的单目实时稠密SLAM框架:将经典的直接VO和基于学习的MVS重建无缝结合;

2)第一个利用全局TSDF模型渲染深度图:实现单目稠密跟踪前端;

3)一种新的MVS网络,CVA-MVSnet:他能够通过视图聚合和多急深度预测来使用整个关键帧窗口;

Github地址:https://github.com/tum-vision/tandem

论文名称:TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view Stereo


2.MonoRec
 该框架也是由慕尼黑工业大约Daniel Cremers团队开源的另一个工作。 不需要激光雷达,只需要单目相机即可在动态环境下,实现半监督稠密重建。动态环境重建一直都是难点,如何保证该方法不受移动物体的影响呢?

作者结合了深度MVS和单目深度估计算法,先试用了MaskModule识别移动像素,降低代价提中相应的体素权重,在利用理解,比如自动驾驶和AR领域

论文地址:https://arxiv.org/abs/2011.11814

Github地址:https://github.com/Brummi/MonoRec


3.Range-MCL
 该算法由伯恩大学Cyrill Stachniss团队开源的激光SLAM算法,可用于自动驾驶汽车的激光雷达全局定位,该工作基于蒙特卡罗和粒子滤波来估计移动机器人或自动驾驶汽车的姿态以实现全局定位,传感器模型将当前激光雷达扫描的距离图像还有三角网格渲染的合成距离图像,进行比较跟新粒子权重,该方法简单有效,可以在不同的数据集和环境中使用不同类型的激光雷达扫描,无需微调,并且在动态的室外大范围环境中取得良好的全局定位结果

PPT链接:https://pan.baidu.com/s/1RFYka89CHnNOGrjp9SXQjw 提取码:ir8o

Github地址:github.com/PRBonn/range-mcl

4.MULLS
苏黎世联邦理工学院、禾赛、洛桑联邦理工学院开源的一种高效、低漂移、通用的三维激光雷达SLAM系统。适用于各种场景,各种规格的激光雷达。前端使用双阈值地面滤波和PCA,从每帧中提取地面、柱子等特征,然后利用多尺度线性最小二乘ICP算法,实现了当前帧与局部子地图的配准。对于后端,在存储的历史子图之间进行分层位姿图优化,以减少因航位推算而产生的漂移。

论文名称:MULLS: Versatile LiDAR SLAM via Multi-metric Linear Least Square

开源代码:https://github.com/YuePanEdward/MULLS

5.LiLi-OM
德国卡尔斯鲁厄理工学院,开源的紧耦合激光雷达-惯性里程计SLAM算法,它专门用于固态机械激光雷达SLAM。主要特点:

1)、针对Livox Horizon的不规则扫描模式量身定做了新的特征提取方法;

2)、前端为基于特征的轻量级激光雷达里程计,采用自适应关键帧选取,提供快速的运动估计;

3)、后端采用基于关键帧的分层滑动窗口优化,以直接融合IMU和LIDAR测量数据。

该系统为各种场景下的移动感知提供了一种经济有效的解决方案。

论文:https://arxiv.org/abs/2010.13150

Github:GitHub - KIT-ISAS/lili-om: LiLi-OM is a tightly-coupled, keyframe-based LiDAR-inertial odometry and mapping system for both solid-state-LiDAR and conventional LiDARs.

6. FAST-LIO2
香港大学张富团队开源的新一代激光雷达惯性里程计FAST-LIO2,该方法可用于自动驾驶、无人机、快速移动的手持设备等场景。有点如下:

1)、计算效率高,在大型室外环境中帧率能达到100HZ;

2)、鲁棒性高,在宣战度高达1000度/秒的杂乱室外环境中进行可靠的姿态估计;

3)、通用性好,使用于多线旋转和固态激光雷达、无人机和手持平台;

4)、精度高,能获得更高或与现有方法相当的精度

Github地址:GitHub - hku-mars/FAST_LIO: A computationally efficient and robust LiDAR-inertial odometry (LIO) package

7.R3LIVE
该系统是视觉+激光+惯性的多传感器融合SLAM系统,基于前一个版本提出了能够实时、低漂移的重建稠密、精确的三维彩色环境点云地图。

项目地址:github.com/hku-mars/r3live

8. GVINS
 香港科技大学劭劼团队的一个紧耦合的GNSS-视觉-管道融合的SLAM系统。即使在RTK失效、没有特征点的情况下也很稳定,主要创新点:

1)、一种在线的由粗到细的初始化GNSS-视觉-惯性状态的方法;

2)、一种基于优化的紧耦合融合方法,在概率框架下将视觉惯性数据与多星座GNSS原始测量值融合;

3)、提供无漂移的6-DOF全局位姿估计器,能够在GNSS信号可能被大量拦截甚至完全不可用的复杂环境中,提供无漂移的6-DOF全局位姿估计。

Github: https://github.com/HKUST-Aerial-Robotics/GVINS

9.LVI-SAM
麻省理工大佬TixiaoShan继LIO-SAM又开源了lvi-sam,这是一个激光+视觉+惯性的紧耦合多传感器融合的slam系统。用于移动机器人的实时状态估计和建图。主要创新点:

1)、通过因子图同时实现多传感器融合、全局优化和回环检测;

2)、通过故障检测机制、避免单一子系统故障导致系统不能使用的情况,提高了整个系统鲁棒性;

Github:https://github.com/TixiaoShan/LVI-SAM

10.DSP-SLAM
物体级语义SLAM:dsp-slam,以ORB-SLAM2为框架,为前景对象构建了一个丰富而精确的稠密3D模型的联合地图。并用稀疏的地标点来表示背景,迟滞三种不同的模式:单目、双目或双目+激光,每秒10帧,利用物体的形状先验,对新见到的物体精确且完整的重建。

代码地址:https://github.com/JingwenWang95/DSP-SLAM 
 

猜你喜欢

转载自blog.csdn.net/qq_58060770/article/details/127312083