iSAM2: Incremental Smoothing and Mapping Using the Bayes Tree 阅读笔记

优化这样一个方程f(x)\propto exp(||Ax+b||^2_2),其实就是解||Ax+b||^2_2这个最小二乘问题,其实就是求A的逆。

这样一个问题包括几个可研究的部分

  • 怎么把各种观测值和变量之间的关系,变成A矩阵
    • 为啥解决一个概率的问题,但都是在处理矩阵的问题呢?
      • 因为我们都是解决的高斯分布的随机变量。高斯分布用一个协方差矩阵和均值向量就能完全表示了。
      • 当我们使用矩阵变换手段,把一个矩阵变成另外一个矩阵,其实也是把一个随机变量变成另外一个随机变量了。
    • 为啥几个观察量的随机变量就能表示所有状态量的联合概率分布,不是联合概率分布是非常难直接表示的吗?
      • 因为所有状态量的随机概率分布就是又这些观察量的随机变量定义的。哪怕只有一个观测量,我们也能定义出一个全状态的联合分布函数。
    • 因子图和Bayes图在联合概率函数上的区别
      • 因子图是由观察量的联合概率密度函数相乘,是表示状态量到观察量的关系,所以是无向图,对应的矩阵不一定是方阵,因为观察量的维度和状态量的维度不一样。Bayes图是由状态量之间的条件密度函数组成,所以是有向图,而且是表示状态量到状态量的关系,所以是方阵。
      • 这篇文章中,通过一个算法把因子图变换成Bayes图后,对应的矩阵也变成了上三角的方阵。当矩阵是上三角的时候,可以通过代入法求逆。
  • 怎么更快速的求解A矩阵的逆
    • 矩阵的顺序对求逆的影响很大,
  • 在添加观察量和状态量的时候,怎么不完全重新求逆
    • 假设我们有A=\begin{bmatrix} 1 & 2 & 0\\ 0& 2 & 4 \end{bmatrix},对应有两个观察量,3个状态变量。
    • 如果我们添加一个观察量和状态量,A的表达变为:A=\begin{bmatrix} 1 & 2 & 0 & 0\\ 0& 2 & 4 & 0\\ 0 & 0 & 1 & 5\end{bmatrix}
    • 虽然只添加了两个数字,但是我们需要重新对A求逆。
    • 但我们知道,有的观察其实只影响局部的信息。比如使用odometry向前推了了一步。这个观察不会影响到历史的状态。也就是求逆后,其实很多矩阵的值是不变的。我们如果有方法明确指出添加一次观察只会影响求逆后的矩阵的哪一部分,我们就可以对状态进行增量更新。

这篇文章主要研究的几个内容:

  •  

猜你喜欢

转载自blog.csdn.net/ziliwangmoe/article/details/86623743