【转】Brute-Force匹配器基础

作者:xxxss
链接:https://www.jianshu.com/p/ed57ee1056ab

Brute-Force匹配器基础
Brute-Force匹配器很简单,它取第一个集合里一个特征的描述子并用第二个集合里所有其他的特征和他通过一些距离计算进行匹配。最近的返回。

对于BF匹配器,首先我们得用cv2.BFMatcher()创建BF匹配器对象.它取两个可选参数,

第一个是normType。它指定要使用的距离量度。默认是cv2.NORM_L2。对于SIFT,SURF很好。(还有cv2.NORM_L1)。对于二进制字符串的描述子,比如ORB,BRIEF,BRISK等,应该用cv2.NORM_HAMMING。使用Hamming距离度量,如果ORB使用VTA_K == 3或者4,应该用cv2.NORM_HAMMING2

第二个参数是布尔变量,crossCheck模式是false,如果它是true,匹配器返回那些和(i, j)匹配的,这样集合A里的第i个描述子和集合B里的第j个描述子最匹配。

两个集合里的两个特征应该互相匹配,它提供了连续的结果,当它创建以后,两个重要的方法是BFMatcher.match()和BFMatcher.knnMatch()。第一个返回最匹配的,第二个方法返回k个最匹配的,k由用户指定。当我们需要多个的时候很有用。想我们用cv2.drawKeypoints()来画关键点一样,cv2.drawMatches()帮我们画匹配的结果,它把两个图像水平堆叠并且从第一个图像画线到第二个图像来显示匹配。还有一个cv2.drawMatchesKnn来画k个最匹配的。如果k=2,它会给每个关键点画两根匹配线。
所以我们得传一个掩图,如果我们想选择性的画的话。让我们各看一个SURF和ORB的例子(都使用了不同的距离度量)使用ORB描述子的Brute-Force匹配这里我们会看到如何匹配两个图片的里的特征。在这个例子里,我有一个查询图像和一个训练图像,我们用特征匹配来在训练图像里找查询图像。我们使用SIFT描述子来匹配特征,所以让我们先加载图像,找到描述子。

import numpy as np
import cv2 
from matplotlib import pyplot as plt
img1 = cv2.imread('box.png',0)          # query Image
img2 = cv2.imread('box_in_scene.png',0) # train Image
# Initiate SIFT detector
orb = cv2.ORB()
# find the keypoints and descriptors with SIFT
kp1, des1 = orb.detectAndCompute(img1,None)
kp2, des2 = orb.detectAndCompute(img2,None)

接着我们用距离度量cv2.NORM_HAMMING创建一个BFMatcher对象,crossCheck设为真。然后我们用Matcher.match()方法来获得两个图像里最匹配的。我们按他们距离升序排列,这样最匹配的(距离最小)在最前面。然后我们画出最开始的10个匹配(为了好看,你可以增加)

# create BFMatcher object
bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True)
# Match descriptors.
matches = bf.match(des1,des2)
# Sort them in the order of their distance
matches = sorted(matches, key = lambda x:x.distance)
# Draw first 10 matches.
img3 = cv2.drawMatches(img1,kp1,img2,kp2,matches[:10], flags=2)
plt.imshow(img3)
plt.show()

下面是结果:

在这里插入图片描述

什么是匹配器对象?

matches = bf.match(des1, des2)的结果是DMatch对象列表。这个DMatch对象有下面的属性:
·DMatch.distance - 描述子之间的距离。越低越好
·DMatch.trainIdx - 训练描述子里的描述子索引
·DMatch.queryIdx - 查询描述子里的描述子索引
·DMatch.imgIdx - 训练图像的索引

用SIFT描述子和比率测试的Brute-Force 匹配
这次,我们使用BFMatcher.knnMatch()来获得k个最匹配的。在这个例子里,我们设置k=2这样我们可以应用比率检测。

import numpy as np
import cv2
from matplotlib import pyplot as plt
img1 = cv2.imread('box.png',0)          # queryImage
img2 = cv2.imread('box_in_scene.png',0) # trainImage
# Initiate SIFT detector
sift = cv2.SIFT()
# find the keypoints and descriptors with SIFT
kp1, des1 = sift.detectAndCompute(img1,None)
kp2, des2 = sift.detectAndCompute(img2,None)
# BFMatcher with default params
bf = cv2.BFMatcher()
matches = bf.knnMatch(des1,des2, k=2)
# Apply ratio test
good = []
for m,n in matches:   
   if m.distance < 0.75*n.distance:
           good.append([m])
# cv2.drawMatchesKnn expects list of lists as matches.
img3 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,good,flags=2)
plt.imshow(img3)
plt.show()

作者:xxxss
链接:https://www.jianshu.com/p/ed57ee1056ab

看下面的结果
在这里插入图片描述

基于FLANN的匹配器

FLANN是快速估计最近邻的库。它包含了一些为大数据集内搜索快速近邻和高维特征的优化算法。它在大数据集的时候比BFMatcher更快。对于基于FLANN的匹配器,我们需要传两个字典指定要用的算法,他们相关的参数等。

第一个是IndexParams。对于更多算法,要传的信息参看FLANN的文档。作为总结,对于像SIFT,SURF等的算法,你可以传下面的:

index_params=dict(algorithm=FLANN_INDEX_KDTREE,trees=5)

当使用ORB,你可以传下面的。注释里的值是推荐的值。但是在有些情况下不提供需要的结果。其他的值工作正常。

index_params = dict(algorithm=FLANN_INDEX_LSH, 
 table_number = 6,  # 12    
key_size = 12,    # 20    
multi_probe_level = 1)  #2

第二个字典是SearchParams,它指定了索引里的树应该被递归遍历的次数。更高的值带来更高的准确率。
但是也花更多时间,如果你想改变值,

search_params = dict(checks=100).

通过这些信息,我们可以开始了:

import numpy as np
import cv2
from matplotlib import pyplot as plt
img1 = cv2.imread('box.png',0)          # queryImage
img2 = cv2.imread('box_in_scene.png',0) # trainImage
# Initiate SIFT detector
sift = cv2.SIFT()
# find the keypoints and descriptors with SIFT
kp1, des1 = sift.detectAndCompute(img1,None)
kp2, des2 = sift.detectAndCompute(img2,None)
# FLANN parameters
FLANN_INDEX_KDTREE = 0
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
search_params = dict(checks=50)   # or pass empty dictionary
flann = cv2.FlannBasedMatcher(index_params,search_params)
matches = flann.knnMatch(des1,des2,k=2)
# Need to draw only good matches, so create a maskmatches
Mask = [[0,0]  for i in xrange(len(matches))]
# ratio test as per Lowe's paper
for i,(m,n) in enumerate(matches):
    if m.distance < 0.7*n.distance:
            matchesMask[i]=[1,0]
draw_params = dict(matchColor = (0,255,0),
    singlePointColor = (255,0,0),
        matchesMask = matchesMask,
            flags = 0)
img3 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,matches,None,**draw_params)
plt.imshow(img3,),
plt.show()

结果:

在这里插入图片描述

END

猜你喜欢

转载自blog.csdn.net/weixin_44190201/article/details/88553219
今日推荐