浅谈单目结构光原理

在3D视觉技术中最常见的几类:结构光、双目和TOF。而单目结构光相比于双目,深度原理没有那么直观,双目立体视觉的原理和人眼感知距离的原理很相似,而单目结构光大部分是需要已知一个平面距离(将其称之为参考平面),而场景中的深度信息均基于参考平面计算得到。奥比的结构光深度相机由激光发射器projector、IR相机、RGB相机以及一块专门用于计算深度的处理器(深度引擎)组成。
在这里插入图片描述
结构光的基本原理:由激光模组发射散斑打在物体上(如图中O点),然后由IR模组接收由不同距离物体反射回来的散斑(如图中的成像点K1点),对于激光发出的同一射线PO,经过参考平面上的R点,在IR sensor上的成像点为R1 。因此对于R1和K1来说,该成像点实际上同一射线在不同距离下的投影点,这组匹配点位置的差作为视差d, 而O到相机平面的距离称之为深度z,所以z与视差d的相关可以根据相似三角形得知:
在这里插入图片描述
在这里插入图片描述
b:基线长度,设备的激光模组和ir模组之间的距离。

f: 焦距

z0: 参考平面的距离

d: 视差

b,f和z0 这三个参数与产品设计有关系,而单目结构光最关键的技术就是计算视差,如何找到当前场景中的散斑点和参考图上的散斑点事激光发射的同一点,那么最关键就属匹配算法了。奥比的结构光的匹配算法是由自主研发的深度引擎处理芯片,已经量产的芯片有MX400、MX6000和MX6300等等。

写在最后:上述结构光的数学模型是一个比较理想模型,可以自己思考,但IR的sensor平面与基线方向不平行时,那么上述的相似三角形就需要变化了。

当参考平面无穷远时,单目结构光的模型会发生什么变化? 且听下回分解!

备注:
点击下面链接,进入奥比中光开发者社区,了解更多3D视觉技术信息:
https://developer.orbbec.com.cn/
或扫描下方二维码,进入奥比中光开发者社区:
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/limingmin2020/article/details/108547246#comments_22192935