ORB特征提取算法分析与实现,算法分解

  本文对2012年最好的特征检测论文,进行了评价和分析。以及相关实现的代码。             本文所来自于原文附件在下面。点击打开链接                                                                            

  ORB:SIFT或SURF的有效替代算法

Ethan Rublee VincentRabaud Kurt Konolige Gary Bradski

Willow Garage, MenloPark, California

{erublee}{vrabaud}{konolige}{bradski}@willowgarage.com

摘要:

特征匹配是许多计算机视觉的基础问题,例如目标识别,运动结构算法。当前的方法依赖于大量的描述子进行检测和匹配。在本文中,我们提出了基于BRIEF算法的快速二进制描述子生成算法,称为ORB,具有旋转不变性和抗噪声能力。我们通过实验展示了ORB是如何在速度上比SIFT快两个数量级,而在各种性能上和SIFT一样优越。其效率是通过各种现实世界的应用来测试,包括了目标检测和智能手机裂纹追踪。


1.     介绍

SIFT算法关键点的检测子和描述子[17],虽然过去了十多年,但在许多视觉特征应用中,包括目标识别[17],图像拼接[28],图像映射[25]等,证明了非常成功。然而,它增加了巨大的计算负担,特别是针对实时系统,比如说视觉测距仪,或者像手机等低功耗设备。这导致了为降低计算成本而进行密集的搜索。可以说,这其中最好的是SURF[2]。还有研究致力于SIFT加速计算,这其中具有代表性的是GPU[26]。

本文中,我们提出了与SIFT有相似匹配性能的高效计算替代算法,其较少受到图像噪声影响,而且能适用于实时处理。我们的主要动机是增强许多常见的图像匹配应用,例如,使得低功耗设备在无需GPU的情况下,加速实现全景拼接和裂纹追踪,并且减少在标准PC机进行基于特征的目标检测时间。我们的描述子在这些任务的处理上和SIFT一样好(并且优于SURF),但处理时间是比SIFT快两个数量级。

我们提出的特征是基于著名的FAST关键点检测子[23]和最近性能有所提升的BRIEF描述子得出来的[6];因此我们称之为ORB(Oriented FAST and Rotated BRIEF)。由于性能好,成本低,这两个技术都具有吸引力。本文中,我们解决了这些技术的限制点,相对于BRIEF算法显著的缺少旋转不变性,我们主要的贡献是:

• 增加快速,准确的定向点到FAST;

• 有向性的BRIEF特征有效计算;

• 有向性的BRIEF特征方差和相关性分析;

• 一种具有旋转不变性的去相关BRIEF特征方法,能在最近邻应用中实现最好的性能。

      为了验证ORB,我们进行了关于ORB相对与SIFT和SURF的特性实验,包括原始匹配能力,和图像匹配应用的性能。我们还通过实现智能手机裂纹追踪来阐述了ORB的高效性。ORB的另外一个好处是它是免费的,但SIFT和 SURF是有专利许可限制的。


图1:利用ORB算法将现实世界中视角变换的图像进行匹配的效果图,

绿线是有效匹配点对,红圈表面没有匹配的点。


2.     相关工作

关键点FAST和它的变量[23,24],是用于在实时系统中寻找关键点和匹配视觉特征的可选方法,例如,平行跟踪和映射[13]。这是有效的,并能找到合理的角点,虽然需要扩大金字塔尺度[14]。在我们的例子中,应用Harris 角点滤波来去除边缘和提供合理的得分[11]。

包括定向算子在内的许多关键点检测子(SIFT和SURF是两个最突出的例子),但是FAST不这样。有许多方法来描述关键点的方向,这些涉及梯度直方图计算,例如SIFT[17]和在SURF[2]中的块模式近似。这些方法,无论在计算需求,以及例如SURF的较差的近似,都有缺点。Rosin在参考文献中给出了各种测量角点的方法分析[22],我们借用他的质心技术。与SIFT中的定向算子不同,它的单个关键点具有多个值,质心算子给出单个主导关键点。

描述子 BRIEF[6]是最近提出的在平滑后的图像像素间进行简单二进制测试。它的性能在很多方面和SIFT相似,包括对光照,模糊,透视失真具有鲁棒性。然而,它对平面内的旋转非常敏感。

BRIEF从使用二进制测试去训练一组分类树研究中产生[4]。一旦训练了一组500个数据集或非常典型的关键点,分类树就能用于返回任意关键点特征[5]。以类似的方式,我们寻找对定向最不敏感的测试。发现不相关测试的经典方法是主成分分析法。例如,在SIFT算法中使用PCA能消除大量的冗余信息[12]。然而,可能的二进制测试空间太大,不能执行PCA,而是使用穷举搜索。

视觉词汇算法[21,27],利用离线聚类来找到不相关的,可以用于匹配的样本。这种技术也可以用于发现不相关的二进制测试。

与ORB最相关的是采用多尺度的Harris关键点和定向的描述子[3]。这种描述子用于图像拼接,并且显示出了好的旋转和尺度不变性。然而,它并没有我们的方法计算效率高。


3.  oFAST: FAST Keypoint Orientation

FAST特征由于其计算特性而被广泛使用。然而,FAST特征没有定向组件。在本节中,我们添加方向的高效计算。

3.1.  FAST 检测子

我们从在图像中检测FAST点开始。FAST使用一个参数,即中心像素和围绕中心的圆环像素的强度阈值。我们使用拥有更好性能的FAST-9(圆半径为9)。   

FAST不产生角度测量,我们已经发现它沿着边缘具有较大的响应。利用Harris角点检测来产生FAST关键点[11]。对于目标数量为N的关键点,我们首先设定低的阈值来获得多余N的关键点,然后根据Harris角点响应来排序,选择前N个点。FAST不产生多尺度特征,我们采用图像尺度金字塔,然后在每层金字塔产生FAST特征(由Harrisl滤波)。


3.2.利用灰度质心定向

我们使用简单但有效的角点方向检测,叫做灰度质心[22]。灰度质心法假设角点的灰度和质心之间存在偏移,这个向量能够计算出一个方向。Rosin将图像的(p+q)阶矩定义为:

                                                               

        

因此,我们能得到图像的质心为:

                                                                             

我们能得出一个从角点中心到质心的向量, 。特征点的方向为:

                                                                             (3)

atan2是反正切。Rosin提到,考虑角落是黑暗还是光亮;然而,为了我们的目的,我们可以忽略这一点,因为角度测量是一致的,而不管角类型。为了提高方法的旋转不变性,需要确保x和y在半径为 的圆形区域内,即 , 等于邻域半径。

我们通过两个梯度测量来比较了质心法,BIN和MAX。在这两种情况下,通过一张平滑的图像来计算X和Y方向的梯度。MAX选择关键点矩的最大梯度;BIN以10度为间隔形成梯度直方图,并且选择最大二进制。BIN类似于SIFT算法,虽然它只选择单个方向。如图二所示模拟数据集中方向的方差(面内旋转加上噪声)。梯度测量执行的很好,而即使在较大的图像噪声下,质心也给出了均匀良好的定向。

图2:旋转测量。灰度质心在人工旋转噪声影响下,

与直方图算法和MAX算法相比,具有最好的恢复主方向的性能。


4.  rBRIEF:Rotation-Aware BRIEF

在本节中,我们首先介绍了转向BRIEF描述子,显示了如何有效的计算它,并且演示了为什么它实际旋转性能不佳,然后介绍了为了生成较好的rBRIEF描述子而寻找最少相关的二进制测试的学习步骤,最后提供了和SIFT和SURF的对比数据。


4.1. 具有高效旋转性能的BRIEF算子

BRIEF的简要回顾

BRIEF描述子[6]是由图像特征点的一组二进制测试所形成的比特字符串描述符。假设一副平滑的图像,特征点领域:p。二进制测试 被定义为:

                                                                              (4)

      其中,p(x)是点x的灰度。这个特征可以由n位二进制测试向量表示:

                                                                              

在[6]中考虑了用各种不同类型的分布来测试,这里我们选择了性能最好的分布,围绕特征点中心的高斯分布,并选择了n=256的向量长度。

在进行测试前,进行图形平滑处理是非常重要的。在我们的实现中,采用积分图像来平滑,在31x31的窗口中,产生一对随机点后,以随机点为中心,取5x5的子窗口,比较两个子窗口内的像素和的大小进行二进制编码,而非仅仅由两个随机点决定二进制编码。

旋转BRIEF

我们想让BRIEF在面内旋转是不变的。对于面内旋转超过几度的BRIEF匹配能力急剧下降(如图7所示)。Calonder建议在特征点窗口内通过一组旋转和透视线来计算BRIEF描述子,但这样的解决方法计算消耗太大。一种更高效的方法是通过关键点方向来旋转BRIEF描述子。对于任意一个特征点,其在位置为( )的n位二进制测试可以2 Xn的矩阵来表示

利用FAST中求出的特征点主方向 ,和对应的旋转矩阵 ,就能得到旋转的 来表示S:

现在,旋转的BRIEF算子就变为

                                  

我们将角度离散为2π/30(12度)的增量,并构造预计算的BRIEF模式的查找表。只要关键点的主方向 正确的一组点 将会用于计算其描述子。

图3:特征向量的平均值分布:BRIEF,旋转BRIEF,和rBRIEF。

X轴代表与平均值0.5的距离。

4.2. 方差和相关性

BRIEF的一个较好的特性是每一位特征具有大的方差和接近0.5的均值。图3显示了超过10万个样本的关键点上256位的典型高斯BRIEF模式均值分布。均值为0.5,其每一位特征最大方差为0.25。另一方面,一旦BRIEF是沿着关键点的方向给出了旋转BRIEF,均值就会移动到更加分散的模式(如图3所示)。理解这一点的方式是定向角点代表了更加均匀的二进制测试。大的方差使得特征点更加容易识别,因为它能对输入做不同的响应。另一个期望的性质是使测试不相关,因为每个测试将有助于结果分析。为了在BRIEF向量中分析相关性和方差的测试,我们观察10万个关键点的BRIEF和旋转BRIEF的响应。结果如图4所示,运用PCA处理数据,画出最高的40个特征值。BRIEF和旋转BRIEF的初始特征值很高,表明了二进制测试的相关性——基本上所有的信息都包含在前10至15个数据里面。旋转BRIEF具有显著的低方差,然而,因为特征值比较小,因此不太有差别。显然,BRIEF取决于关键点的随机方向,以获得良好的性能。另一个观点认为旋转BRIEF的效果表现在内点值和外点的距离分布(图5)。注意到旋转的BRIEF,其外点的均值被推向左侧,并且和内点有更多的重叠。

图4:三个特征向量超过100k个关键点的PCA分解的特征值分布:

BRIEF,旋转BRIEF,和rBRIEF。


图5:虚线代表了关键点到外点的距离,实线代表了三个

特征向量:BRIEF,旋转BRIEF,和rBRIEF的各自内点匹配对间的距离。

4.3. 学习好的二进制特性

为了恢复旋转BRIEF的方差损失,并且减少二进制测试的相关性,我们提出一种选择好的二进制测试子集的学习方法。一个可能的策略是使用PCA或其他降维方法,从大的二进制测试集出发,从大的训练集中辨识出256组具有大方差,不相关的特征。然而,由于新的特征是由许多个二进制测试组成,与旋转BRIEF相比,在计算上效率非常低。因此,我们开始寻找具有大的方差(均值接近0.5),以及不相关的各种二进制测试。

方法如下,首先建立具有30万关键点的训练集,从PASCAL 2006[8]数据集中,绘制图像集。我们还从31 的窗口中枚举了所有可能的二进制测试。每一个测试是在5 5的子窗口中进行。如果特征点宽度为 的窗口,测试的子窗口宽度为 ,我们能得到 种可能的子窗口。我们从中选择两对,可以得到 个二进制测试,消掉重叠的测试,最后有M=205590种可能测试。算法如下:

1.     针对所有训练窗口运行每个测试。

2.     按照距离均值0.5的距离排序,形成向量T。

3.     贪婪搜索:

(a)   从T中把排第一的那个binary test放到R中,T中就没有这个测试了;

(b)   然后把T中排下一个的点对与R中所有测试求相关,如果相关值超过某一事先设定的阈值,就扔了它,否则就把这个点对像素比较放到R里面;

(c)    重复上一步直到R中有256个测试为止。如果全找完了也不够256个,就把阈值升高一些,再重试一遍。 

这个算法是对均值靠近0.5的不相关测试进行贪婪搜索,结果称为rBRIEF。rBRIEF在方差和相关性上与旋转BRIEF相比有明显进步(如图4)。PCA的特征值较高,它们的下降速度要快得多。有趣的是看到由算法产生的大方差二进制测试(图6)。在未学习的测试(左图)中有非常明显的垂直趋势,具有高的相关性;学习后的测试显示出更好的多样性和低相关性。


图6:通过考虑主方向大方差(左)和运行学习算法来减少相关性。注意到围绕

测试轴的关键点主方向分布,是指向上方的。颜色编码显示每个测试的最大成

对相关性,黑色和紫色最低。学习测试显然具有较好的分布和较低的相关性。


4.4. 评估

我们使用两个数据集来评估我们称为ORB的由oFAST和rBRIEF的组合:具有合成面内旋转和增加高斯噪声的图像,和从不同视点捕获的纹理平面图像的真实世界数据集。对每一幅参考图像,针对每幅图像的500个关键点,我们计算oFAST关键点和rBRIEF特征。对每一幅测试图像(合成旋转或真实世界视点改变),我们做同样的测试,然后执行暴力匹配来寻找最佳匹配。结果通过相对于旋转角度给出匹配正确的百分比。

图7显示了增加10的高斯噪声的合成测试集的结果。可以发现标准的BRIEF算子在10度的时候出现戏剧性的下降。SIFT比SURF效果好,由于其由Harr小波组成,导致在45度存在分层效应。ORB效果最好,超过70%的内点。ORB对高斯图像噪声相对免疫,不像SIFT。如果我们画出内点性能和噪声的关系,SIFT每增加5个噪声增量,表现出稳定的10%的下降。ORB也下降,但速率低得多(图8)。

为了在真实世界测试ORB,我们拍摄了两套图像,一套是在室内桌子上的高纹理杂志(图9),另一个是户外场景。数据集具有尺度,视点,光照变化。对这套图像进行简单的内点/外点测试,我们测出ORB和SIFT,SURF相关的性能。测试按照以下方式进行:

1.     选取参考视图 ;

2.     对于所有 ,找到一个单应性旋转矩阵 ,将 映射到 ;

3.     现在,将 作为SIFT,SURF和ORB的描述子匹配参考的标准。

 

 

内点%

N点

杂志

 

 

 

 

ORB

36.180

548.50

 

SURF

38.305

513.55

 

SIFT

34.0.0

584.15

 

 

 

 

ORB

45.8

789

 

SURF

28.6

795

 

SIFT

30.2

714

ORB在户外数据集上胜过SIFT和SURF。在户内数据上性能差不多。[6]发现像SIFT在散乱的图像上进行一团的关键点检测性能更加优异。


图7:SIFT,SURF,BRIEF,FAST以及ORB算法在高斯噪声为10的

合成旋转下的匹配性能比较



5. 可扩展匹配的二进制特征

在本节中,我们显示在大的图像数据库上实现最近邻匹配,ORB的性能优于SIFT/SURF。ORB的关键部分是方差恢复,这使得最近邻搜索更有效。

5.1. rBRIEF的局部敏感哈希值

由于rBRIEF是二进制模式,我们选择局部敏感哈希值作为我们最近邻搜索。在LSH中,点被存储在数个哈希表中,并且散列在不同地方。给定一个查询描述子,检索其匹配的区域,并使用暴力匹配来比较其元素。该技术的能力在于它能够在给定足够的哈希表的情况下以最高概率检索最近邻值。

对于二进制特征,哈希函数只是标志位的子集:哈希表的区域包含公共子标志的描述子。距离是汉明距离。我们使用多探针LSH[18],它通过查看相邻区域的查询描述子来提高传统的LSH。虽然这可能导致更多的匹配需要检查,但它实际上允许少数量的哈希表(因此更少的RAM消耗)和较长的子标志位,因此更少的查询区域。


图8:SIFT和rBRIEF在噪声下的匹配表现。噪声级别在0,5,10,15,20和25。

SIFT性能有很大程度下降,而rBRIEF性能相对不变。


图9:一个充满杂志和户外场景的现实世界数据图。第一列的图像和第二列

的图像匹配。最后一列是第一列变换到第二列的旋转图像。

5.2. 相关和调平

rBRIEF通过使哈希表的区域更加均匀来提高LSH的速度:因为比特较少相关,哈希函数在数据分割中做的更好。如图10所示,哈希区域在和旋转BRIEF或正常的BRIEF比较中,小得多。

5.3. 评估

我们将使用kd树的rBRIEF LSH,使用FLANN的SIFT特征进行性能比较。我们在Pascal 2009数据集上训练不同的描述子,并使用与[1]中相同的仿射变换对这些图像的采样弯曲版本进行测试。

我们的多探针LSH使用位元组来加速哈希图中关键点的存在。它还使用SSE 4.2优化后popcount来计算汉明距离。

图11建立了具有SIFT(SURF等效)的kd树的速度和精确度与具有rBRIEF的LSH之间的相关性。当在正确的数据库图像中找到超过50个描述子时,发生了测试图像的成功匹配。我们发现LSH比kd树快,最有可能是由于其简单性和速度计算的速度。LSH还在准确性方面提供更多的灵活性,这在袋特性方法中很有趣[21,27]。我们也可以注意到,由于其不均匀的区域,旋转BRIEF要慢得多。


图10:用两个不同的数据集来在BRIEF,旋转BRIEF和rBRIEF描述子上训练LSH。

训练耗时小于2分钟,主要受到硬盘IO速度限制。


图11:速度和精度对比。描述子在训练好的旋转图像上测试。我们利用1,2和3kd_trees来进行SIFT,4到20哈希表使用rBRIEF,16到40用旋转BRIEF。

在SIFT上进行1.6M次最近邻搜索,在rBRIEF上进行1.8M次最近邻搜索。


6. 应用

6.1. 基准

ORB的一个重点是在标准CPU上检测和描述的效率。我们规范的ORB检测子采用oFAST检测子和rBRIEF描述子。以缩放因子为 在图像的五个尺度上分别计算。我们使用基于面积的插值法来有效   提取。

ORB系统在大小为640 480的每个典型帧中分解为以下时间。该代码在一个单线程的Intel i7 2.8GHz处理器上执行:

ORB:

Pyramid

oFAST

rBRIEF

Time(ms)

4.43——

8.68——

2.12

当在具有5个尺度的2686张图像的数据集上计算ORB时,它能够在42s内检测和计算超过2 个特征。在相同的数据上,具有相同数量的特征(大约1000个)以及相同的尺度上,与SIFT和SURF相比,我们得到以下时间:

Detector

ORB

SURF

SIFT

Time per frame (ms)

15.3——

217.3——

5228.7

这些时间是从Pascal数据集中取得平均超过24张640 的图像。ORB比SURF快一个数量级,比SIFT快两个数量级。


图12:两张用于标定的目标识别位置估计图像。蓝色特征是叠加在查询图像上

的训练特征,以表明目标的姿态被正确发现。还会为每个物体显示粉色

的轴线。左边图像丢失两个目标,全部在右边找到。

6.2. 纹理对象检测

我们通过实现一个类似于[19]的常规目标识别流水线,应用rBRIEF来目标识别:我们首先检测oFAST特征和rBRIEF描述子,与我们的数据库进行比对,然后执行PROSAC[7]和EPnP[16]进行姿态估计。

我们的数据库包含49个家庭物品,每个采用24个视图,使用2D相机和Microsoft的Kinect设备拍摄。测试数据由在不同视点和遮挡下的那些相同对象的子集的2D图像组成。为了形成匹配,我们要求描述子被匹配,但也能计算姿态。最后,我们的流水线检索61%的对象,如图12所示。该算法在200MB的数据库中处理1.2M个描述子,并且具有早先显示时间相同的时序(平均14ms用于检测,17ms用于LSH匹配)。通过不将所有查询描述子与训练的数据匹配,流水线可以显著的加速,但是我们的目标只是显示用ORB检测对象的可行性。

6.3. 嵌入式实时特征追踪

在电话上的追踪涉及将当前帧与先前捕获的关键帧进行匹配。描述子与关键帧一起存储,假设包含良好纹理的平面表面。我们对每个进来的帧进行ORB处理,并对关键帧描述子进行暴力匹配。来自描述子距离的推定匹配用于PROSAC最佳单应性匹配H。

虽然有可以在手机上运行的实时特征追踪器[15],他们通常在非常小的图像上(例如,120 )操作并且具有非常少的特征。与我们的类似的系统[30]通常每一幅图像占用1秒钟。我们能够在手机上以7Hz速度运行具有640 480分辨率的ORB,手机带有1GHz的ARM芯片和512MB的RAM,Android的OpenCV端口用于实现。这里是每幅图像约400个点的基准:

 

ORB

Matching

H Fit

Time (ms)

66.6——

72.8——

20.9


7. 结论

在本文中,我们定义了新的定向描述子,ORB,并展示了相对于其他流行的特征算法的性能和效率。为了在最近邻应用中获得良好的性能,定向方差的查询对于构建ORB和对其元素进行去相关是至关重要的。我们还通过OpenCV 2.3为社区贡献了BSD许可的ORB实现。

我们还未充分解决的问题是尺度不变性。虽然我们在尺度上使用金字塔方案,但我们没有从深层次原因来探讨关键点尺度,调整八度的数量等。未来的工作还包括GPU/SSE的优化,这可以将LSH提高另一个数量级。

参考文献

[1] M. Aly, P. Welinder, M. Munich, and P.Perona. Scaling object recognition: Benchmark of current state of the art techniques.InFirst IEEE Workshop on Emergent Issues in Large Amounts of VisualData (WS-LAVD), IEEE International Conference on Computer Vision (ICCV),September 2009.6

[2] H. Bay, T. Tuytelaars, and L. Van Gool.Surf: Speeded up robust features. InEuropean Conference on Computer Vision,May 2006.1,2

[3] M. Brown, S. Winder, and R. Szeliski.Multi-image matching using multi-scale oriented patches. InComputer Visionand Pattern Recognition, pages 510–517, 2005.2

[4] M. Calonder, V. Lepetit, and P. Fua.Keypoint signatures for fast learning and recognition. InEuropeanConference on Computer Vision, 2008.2

[5] M. Calonder, V. Lepetit, K. Konolige, P.Mihelich, and P. Fua. High-speed keypoint description and matching using densesignatures. InUnder review, 2009.2

[6] M. Calonder, V. Lepetit, C. Strecha, andP. Fua. Brief: Binary robust independent elementary features. InIn EuropeanConference on Computer Vision, 2010.1,2,3,5

[7] O. Chum and J. Matas. Matching withPROSAC – progressive sample consensus. In C. Schmid, S. Soatto,

And C. Tomasi, editors, Proc. ofConference on Computer Vision and Pattern Recognition (CVPR), volume 1,pages 220–226,Los Alamitos, USA, June 2005. IEEE Computer Society.7

[8] M. Everingham. The PASCAL Visual Object ClassesChallenge 2006 (VOC2006) Results.http://pascallin.ecs.soton.ac.uk/challenges/VOC/databases.html.4

[9] M. Everingham, L. Van Gool, C. K. I.Williams, J. Winn, and A. Zisserman. The PASCAL Visual Object Classes Challenge2009 (VOC2009) Results.http://www.pascalnetwork.org/challenges/VOC/voc2009/workshop/index.html.6, 7

[10] A. Gionis, P. Indyk, and R. Motwani.Similarity search in high dimensions via hashing. In M. P. Atkinson, M. E.Orlowska, P. Valduriez, S. B. Zdonik, andM. L. Brodie, editors,VLDB’99,Proceedings of 25th International Conference on Very Large Data Bases,September 7-10, 1999, Edinburgh, Scotland, UK, pages 518–529. MorganKaufmann, 1999. 6

[11] C. Harris and M. Stephens. A combinedcorner and edge detector. InAlvey Vision Conference, pages 147 151,1988.2

[12] Y. Ke and R. Sukthankar. Pca-sift: Amore distinctive representation for local image descriptors. InComputerVision and Pattern Recognition, pages 506–513, 2004. 2

[13] G. Klein and D. Murray. Paralleltracking and mapping for small AR workspaces. InProc. Sixth IEEE and ACMInternational Symposium on Mixed and Augmented Reality (ISMAR’ 07),Nara, Japan, November 2007.1

[14] G. Klein and D. Murray. Improving theagility of keyframebased SLAM. InEuropean Conference on Computer Vision,2008. 2

[15] G. Klein and D. Murray. Paralleltracking and mapping on a camera phone. InProc. Eigth IEEE and ACMInternational Symposium on Mixed and Augmented Reality (ISMAR’09), Orlando,October 2009. 7

[16] V. Lepetit, F.Moreno-Noguer, and P. Fua.EPnP: An accurate O(n) solution to the pnp problem.Int. J. Comput. Vision,81:155–166, February 2009. 7

[17] D. G. Lowe. Distinctive image featuresfrom scale-invarian keypoints.International Journal of Computer Vision,60(2):91–110, 2004. 1, 2

[18] Q. Lv, W. Josephson, Z. Wang, M.Charikar, and K. Li. Multi-probe LSH: efficient indexing for high-dimensional similaritysearch. InProceedings of the 33rd international conference on Verylarge data bases, VLDB ’07, pages 950– 961. VLDB Endowment, 2007. 6

[19] M. Martinez, A. Collet, and S. S.Srinivasa. MOPED: A Scalable and low Latency Object Recognition and Pose EstimationSystem. InIEEE International Conference on Robotics and Automation.IEEE, 2010. 7

[20] M. Muja and D. G. Lowe. Fast approximatenearest neighbors with automatic algorithm configuration.VISAPP, 2009. 6

[21] D. Nist´er and H. Stew´enius. Scalablerecognition with a vocabulary tree. InCVPR, 2006. 2, 6

[22] P. L. Rosin. Measuring cornerproperties. Computer Vision and Image Understanding, 73(2):291 – 307,1999. 2

[23] E. Rosten and T. Drummond. Machinelearning for highspeed corner detection. InEuropean Conference on ComputerVision, volume 1, 2006. 1

[24] E. Rosten, R. Porter, and T. Drummond.Faster and better :A machine learning approach to corner detection.IEEETrans. Pattern Analysis and Machine Intelligence, 32:105–119, 2010. 1

[25] S. Se, D. Lowe, and J. Little. Mobilerobot localization and mapping with uncertainty using scale-invariant visuallandmarks.International Journal of Robotic Research, 21:735– 758,August 2002. 1

[26] S. N. Sinha, J. michael Frahm, M.Pollefeys, and Y. Genc. Gpu-based video feature tracking and matching.Technical report, In Workshop on Edge Computing Using New Commodity Architectures,2006. 1

[27] J. Sivic and A. Zisserman. Video google:A text retrieval approach to object matching in videos.InternationalConference on Computer Vision, page 1470, 2003. 2, 6

[28] N. Snavely, S. M. Seitz, and R.Szeliski. Skeletal sets for efficient structure from motion. InProc.Computer Vision and Pattern Recognition, 2008. 1

[29] G.Wang, Y. Zhang, and L. Fei-Fei. Usingdependent regions for object categorization in a generative framework, 2006. 6

[30] A. Weimert, X. Tan, and X. Yang. Naturalfeature detection on mobile phones with 3D FAST.Int. J. of Virtual Reality,9:29–34, 2010. 7

猜你喜欢

转载自blog.csdn.net/qq_32998593/article/details/78653334
今日推荐