SLAM / 3D Vision求职专题 | SLAM知识篇(D1)

今日得空,开始愉快的做题!各位看官请指教。  

第一部分,先来完成该专题最重要的内容,即笔试面试中所考察的SLAM专业知识。 SLAM知识篇所准备的这些问题不一定全面,但是问题都是基于三位求职者的总结回忆,具有很好的代表性。 

可能用到的的参考资料有:

A)《视觉slam十四讲》,入门slam绝对的好书,已经看了很多遍;

B)《机器人状态估计》,已经看完了,经典,书中讲滤波/非线性非高斯过程/李群/位姿估计等等平白中带着严谨,部分内容目前理解不够深;

C)《计算机视觉:算法与应用》,这本书涉及到视觉的知识很广,包含了图像处理/三维几何/摄影学等等,作为参考书是不错的; 

D)《MVG》,多视图立体几何,slam领域经典中的经典,但是没有书只有电子版,全英文,内容多而深,我看的不多,如有用到我们再查阅;

E)各种经典的文献,SVO/LSD/ORBSLAM/DSO/Manifold/VINS/PLSLAM等等,真正的把这些好的开源方案理论理解了并阅读源码,确实是要花时间而且对数学编程要求都不低,博主起步慢做得不好…… 

F)网上的各种资源,尤其是各种博客不失为一种高效的学习资源。   

为了图省事,很多地方直接贴照片了。          


D1    

  1. landmark参数化方式、对比,逆深度参数化;点线面因子图优化
  1. 滤波+回环(Trifo-VIO)
  2. outlier+鲁棒核、RANSAC
  3. EKF更新方程

图片,来源于A

  1. AR系统如何实现

这篇博客不错:https://blog.csdn.net/qq_27489007/article/details/78765810

总结一下:

  1. 介绍下VO

里程计一词来源于汽车,轮式里程计可以通过对车轮的转动可以得知汽车的运动距离。对于机器人而言,简单的说里程计就是机器人的运动轨迹,即求解机器人在每一时刻的位姿表示,有六个自由度; 视觉里程计,机器人携带相机作为外传感器,根据实时的视频流,也就是相机图像信息估计机器人的位姿变换,即六自由度(位置和姿态),例如使用单目相机称为单目视觉里程计,两个相机称为立体视觉里程计。

  1. Gridmap(网格标0、1)给定起点和终点,求最优路径(A*或其他路径规划算法)
  2. 相似变换、仿射变换、射影变换的区别
  3. E和F的区别,自由度计算
  4. 单应矩阵H的求取
  5. PNP算法、ICP算法(二维码、手眼标定)
  6. 闭环检测常用方法(orb、lsd、深度学习)
  7. 单目的初始化(拓展:双目,RGBD,VIO的初始化及传感器标定),其他:https://github.com/frobelbest/GSLAM
  8. 简述一下Bundle Adjustment的过程
  9. SVO、LSD中深度滤波器原理
  10. 说一说某个SLAM框架的工作原理(svo、orb、lsd)及其优缺点,如何改进?
  11. RANSAC的框架
  12. 位姿不同表示间的相互转化、旋转矩阵特征值和特征向量物理意义
  13. 真实世界到相机照片的变换可看成射影变换
  14. 直接法与特征点法的优缺点对比
  15. 常见滤波方法的对比(KF、EKF、IEKF、UKF、PF)
  16. 双目测距范围Z=fb/d。问题: 640*480,fov=90°,zmax=10m,最小视差为2,求使zmax稳定的最小基线长度(6.25cm)
  17. 特征点法与直接法误差模型、Jacobian推导
  18. 光流的假设、仿射变换、4种方法,svo采取的方法,优势何在
  19. MSCKF与ROVIO、MSCKF与预积分(structureless factor)
  20. 边缘化方式原理

猜你喜欢

转载自blog.csdn.net/weixin_43795395/article/details/89914667