[SLAM](1-2): 传感器分类、单目相机、双目相机、深度相机

SLAM讲解,结合 高翔老师的著作《视觉SLAM十四讲:从理论到实践》内容,加上小白的工程实践经验共同完成。建议与 书籍 搭配使用。

 本文以问答及提纲的形式讲解,更适合作为 笔记 功能反复使用。


1. 用于定位的传感器分类

    主要分成两类:

    1). 传感器携带于机器人本体上。
    例如:机器人的轮式编码器、相机、激光、惯性测量单元(IMU)等等。(这些传感器测量的都是一些间接的物理量而不是直接的位置数据。轮式编码器:测到轮子转动的角度、IMU:测量运动的角速度和加速度、相机和激光:读取外部环境的某种观测数据。)

     2). 传感器安装于环境中的。
     例如导轨、二维码标志等等。(此类传感器,在一定程度上限制了机器人的使用范围。)

2. 相机按工作方式分类

    单目相机(Monocular)、双目相机(Stereo)、深度相机(RGB-D)

    以一定速率拍摄周围的环境,形成一个连续的视频流。普通相机能以每秒钟30秒张图片的速度采集图像,高速相机则更快一些。深度相机(RGB-D)原理较复杂,除了能够采集彩色图像之外,还能读出每个像素离相机的距离。(还有全景相机、Event相机等。)

3.单目相机

   结构简单,成本低。本质上是拍照时的场景,在相机的成像平面上留下一个投影。以二维的形式反映三维的世界。

   单目SLAM估计的轨迹和地图,将与真实的轨迹’地图,相差一个因子,也就是所谓的尺度。由于单目SLAM无法仅凭图像确定这个真实尺寸,所以又称为尺度不确定性。 本质原因是通过单张图像无法确定深度。

4.双目相机

   双目相机由两个单目相机组成,但这两个相机之间的距离(称为基线)是已知的。我们通过这个基线来估计每个像素的空间位置,基线距离越大,能够测量到的就越远,双目与多目的缺点是配置与标定均较为复杂,其深度量程和精度受双目的基线与分辨率的限制,而且视觉计算非常消耗计算资源,需要使用GPU和FPGA设备加速后,才能实时输出整张图像的距离信息。因此在现有的条件下,计算量是双目的主要问题之一。

5.深度相机

    深度相机又称RGB-D相机,它最大的特点是可以通过红外结构光或Time-of-Flight(ToF)原理,像激光传感器那样,通过主动像物体发射光并接收返回的光,测出物体离相机的距离。

   目前常用的RGB-D相机还存在测量范围窄、噪声大、视野小、易受日光干扰、无法测量透射材质等诸多问题。


《视觉SLAM十四讲:从理论到实践》 PDF资源

下载链接:https://download.csdn.net/user/robot_starscream/uploads

此资源仅供各位研究员试读,请购买纸质书籍。

猜你喜欢

转载自blog.csdn.net/Robot_Starscream/article/details/83338660
今日推荐