Fisher Vectort学习

前提

      Fisher Vectort 本质上是用似然函数的梯度向量来表达一幅图像。

参照博客https://blog.csdn.net/wzmsltw/article/details/52040010


基础知识

似然函数:

统计学中,似然函数是 一种关于统计模型参数的函数。给定输出x时,关于参数θ的似然函数L(θ|x)(在数值上)等于给定参数θ后变量X的概率:L(θ|x)=P(X=x|θ)。

似然函数在推断统计学(Statistical inference)中扮演重要角色,尤其是在参数估计方法中。在教科书中,似然常常被用作“概率”的同义词。但是在统计学中,二者有截然不同的用法。概率描述了已知参数时的随机变量的输出结果;似然则用来描述已知随机变量输出结果时,未知参数的可能取值。例如,对于“一枚正反对称的硬币上抛十次”这种事件,我们可以问硬币落地时十次都是正面向上的“概率”是多少;而对于“一枚硬币上抛十次”,我们则可以问,这枚硬币正反面对称的“似然”程度是多少。

高斯分布:参照博客https://blog.csdn.net/ikerpeng/article/details/41644197

生活和自然中,很多的事和物的分布都可以近似的看做是高斯分布。比如说:一个班的成绩的优良中差的分布。最优秀的和最差的往往都是少数,一般人是大多数。

高斯分布直观的感受是这样的:这是这种分布的概率情况的表示:

2. 混合高斯分布

问题是:一个班的成绩的分布他也可能是这样的:60分以下以及95分以上很少人,60-75很多人,突然75-85人又少了,但是85-90又多了。这个时候直观的感受是这样的:

这个时候很显然若使用两个高斯分布来拟合,加上二者的权重效果比单个的高斯分布要好得多!若是不止两个山峰那最好就是再多几个高斯的分布同时来拟合。这就是所谓的GMM(Gaussian Mixture Model)。
 


 

1

前面说的梯度向量,说白了就是数据拟合中对参数调优的过程。

似然函数怎么来的?:参照博客:https://blog.csdn.net/carrierlxksuper/article/details/28151013

对于一幅图像,有T个描述子(比如SIFT),那么这幅图像就可以表示为:。如果假设这些特征xt符合一定的分布,并且这些分布彼此独立,也就是独立同分布(i.i.d)。现在用一组k个高斯分布的线性组合来逼近这些iid。公式推导详见参照博客。对公式一求导数,然后将偏导数,也就是梯度,作为fisher vector。

上面求出来的都是没有归一化的vector。需要进行归一化操作。之后。由于每一个特征是d维的,需要K个高斯分布的线性组合,有公式5,一个Fisher vector的维数为(2*d+1)*K-1维。这样得到的便是一张图片的特征了,便可以做视觉方面的操作

猜你喜欢

转载自blog.csdn.net/qq_42666483/article/details/88084495
今日推荐