PDM:Training Models of Shape from Sets of Examples

      这篇论文介绍了一种创建柔性形状模型(Flexible Shape Models)的方法——点分布模型(Point Distribution Model)。该方法使用一系列标记点来表示形状,重要的是根据所有训练样本计算出平均形状(Average Shape)和平均形状主要的变化模式(Modes of Variation)。其中变化模式描述了形状从平均形状变化到样本形状的主要变化方式,比如长度拉伸、面积变大等。模型只有少量的线性独立的参数,这句话的意思后面会解释。
      与柔性形状模型相对应的是刚性模型(Rigid Models),但是刚性模型在很多实际场景中并不合适,因为即使是同一类的目标其形状也不是完全一致的。为此,作者提出了基于训练样本标记点的统计信息建模的点分布模型。为了得到平均形状和主要的变化模式,我们需要将训练样本中的标记点自动对齐。整个模型由平均形状和一些描述变化模式的向量组成。作者以一个例子向大家详细地说明了整个模型的建立过程,如下:
      1> 标记训练集(Labelling the Training Set
     因为模型是用固定数目的标记点表示的,所以必须先对训练集中每一个样本的形状进行标记。这些点的标记非常重要,它们表示了对象的特定部分或边界,如果标记的不准确会导致无法获取形状的变化模式。这些标记点并不是随便选取的,在操作时最好选择那些在不同样本中均能确定的点。作者在论文中以电阻为例展示了形状的标记,如下图:

1555914624(1)

1555914671

        2> 对齐训练集(Aligning the Training Set            

         对齐是很重要的一步,如果不进行对齐操作的话就不能进行比较,后面的统计量也将毫无意义。对齐操作就是对每一个样本进行相似变换,以便让样本之间尽可能的接近,其优化目标是最小化加权距离平方和,这实际上就是广义Procrustes分析(Generalised Procrustes Analysis)。
          下面以两个shapes为例说明变换的过程:

          将训练集中的第i个样本记为向量CodeCogsEqn (21),该样本经过旋转、尺度缩放以及平移后得到CodeCogsEqn (22)。给定两个相似的形状CodeCogsEqn (23)CodeCogsEqn (24),旋转参数CodeCogsEqn (25),尺度缩放参数CodeCogsEqn (26)以及平移参数CodeCogsEqn (27),那么将CodeCogsEqn (23)映射到CodeCogsEqn (22)时对应的加权和为:

CodeCogsEqn (28)其中

CodeCogsEqn (29)        CodeCogsEqn (30)是对角阵,表示每个点的权重。那么如何求解使得CodeCogsEqn (31)最小的参数呢?

     首先,点对应的权重越大表示该点在训练集中相对于其它点越稳定。权重矩阵的定义如下:CodeCogsEqn (32)表示一个形状中点k和点l之间的距离;CodeCogsEqn (33)表示训练集中所有shapes中点k和点l之间距离的方差,那么权重矩阵中的第CodeCogsEqn (34)个元素为

CodeCogsEqn (35)

  

        从上式中可以直观地看出如果一个点在训练集样本中相对其它点不稳定,那么其方差就会较大,相应的权重就会较小。反之,权重就会较大。

其次,对于剩下的参数可以使用最小二乘法的代数求解法求解,即目标函数先分别对模型参数求导,然后再置为0得到若干线性方程组,解该方程组就能得到参数的值。如果记CodeCogsEqn (36)CodeCogsEqn (37),那么应用最小二乘法后得到的线性方程组可以表示成如下形式:

CodeCogsEqn (38)        其中


CodeCogsEqn (39)接下来使用标准的矩阵方法就能解出参数值。


既然现在权重矩阵和对齐时求解参数的方法已知,那我们就可以在训练集上进行对齐操作了。对齐的算法如下:

    1> 选取第一个shape作为参考形状(Refer Shape),将剩下的shape依次与之对齐(相似变换)

          重复下列步骤直至收敛:

          2> 计算对齐后的平均shape

          3> 二选一

               a) 将得到的mean shape调整到预先设置好的尺寸、方向和原点;

               b) 经过旋转、缩放、平移操作将mean shape对齐到第一个shape(相当于是指定好的尺寸、方向和原点)

          4> 将训练集中的所有shapes与计算出的mean shape对齐;

收敛可以通过计算各shapemean shape之间的平均距离来判断。实验证明,使用这种判断方式时会收敛到相同的结果,即使在对齐时第一阶段选择的Refer Shape不同。


3> 获取对齐形状的统计信息(Capturing the Statistics of a  Set of Aligned Shapes

       通过对齐后的shapes可以获得mean shape和形状变化的模式。平均形状计算如下:

CodeCogsEqn (40)


      通过对各shapemean shape之间的偏差应用PCA,我们可以得到形状变化的模式(Models of  Variation)。对于每一个形状,可以求得其与平均形状的偏差

CodeCogsEqn (41)

然后我们可以计算出CodeCogsEqn (42)n是每个shape中的点数)的方差矩阵S,如下

CodeCogsEqn (43)


     modes of variation就是矩阵S的特征向量CodeCogsEqn (45)

CodeCogsEqn (44)

     且特征向量经过了归一化

CodeCogsEqn (47)


    可以发现,特征值越大其所对应的特征向量表示的变化越重要。实际上,绝大多数变化可以通过少数变化模式来解释,也就是说很多变化都是部分变化模式综合作用的结果。那么如何确定这些变化模式的数量呢?通常的做法是选择t个特征值,使得其和占所有特征值之和的比例足够大,这和PCA中确定主成分的方法一致。

至此,训练集中的任何shape均可以通过mean shape和该shapet个模式的偏差的加权和得到:

CodeCogsEqn (48)

其中CodeCogsEqn (49),是方差矩阵的前t个特征向量;CodeCogsEqn (50),是t个特征向量的权重构成的向量。

这些特征向量是正交的,所以CodeCogsEqn (51),那么

CodeCogsEqn (52)


    在限定范围内改变向量b中元素的值我们可以得到新的shape。此外b中的元素是线性独立的,也就说彼此对shape的影响相互独立。在论文中作者提到了参数改变的限定范围如何确定:记参数CodeCogsEqn (53)CodeCogsEqn在训练集上的方差,那么合适的限定范围很有可能是

CodeCogsEqn (54)

因为绝大多数样本都分布在3倍于均值标准差的范围内。


    论文的后面部分作者以实例说明了该方法的有效性,具体内容见论文原文。

猜你喜欢

转载自www.cnblogs.com/Lilu-1226/p/10757960.html