KNN的优化算法2:KD-tree(2)

推荐参考文章:https://leileiluoluo.com/posts/kdtree-algorithm-and-implementation.html

k-d tree即k-dimensional tree,常用来作空间划分及近邻搜索,是二叉空间划分树的一个特例。通常,对于维度为k,数据点数为N的数据集,k-d tree适用于N≫2k的情形。
1)k-d tree算法原理
k-d tree是每个节点均为k维数值点的二叉树,其上的每个节点代表一个超平面,该超平面垂直于当前划分维度的坐标轴,并在该维度上将空间划分为两部分,一部分在其左子树,另一部分在其右子树。即若当前节点的划分维度为d,其左子树上所有点在d维的坐标值均小于当前值,右子树上所有点在d维的坐标值均大于等于当前值,本定义对其任意子节点均成立。
1.1)树的构建
一个平衡的k-d tree,其所有叶子节点到根节点的距离近似相等。但一个平衡的k-d tree对最近邻搜索、空间搜索等应用场景并非是最优的。
常规的k-d tree的构建过程为:循环依序取数据点的各维度来作为切分维度,取数据点在该维度的中值作为切分超平面,将中值左侧的数据点挂在其左子树,将中值右侧的数据点挂在其右子树。递归处理其子树,直至所有数据点挂载完毕。
a)切分维度选择优化
构建开始前,对比数据点在各维度的分布情况,数据点在某一维度坐标值的方差越大分布越分散,方差越小分布越集中。从方差大的维度开始切分可以取得很好的切分效果及平衡性。
b)中值选择优化
第一种,算法开始前,对原始数据点在所有维度进行一次排序,存储下来,然后在后续的中值选择中,无须每次都对其子集进行排序,提升了性能。
第二种,从原始数据点中随机选择固定数目的点,然后对其进行排序,每次从这些样本点中取中值,来作为分割超平面。该方式在实践中被证明可以取得很好性能及很好的平衡性。
本文采用常规的构建方式,以二维平面点(x,y)的集合(2,3),(5,4),(9,6),(4,7),(8,1),(7,2)为例结合下图来说明k-d tree的构建过程。
a)构建根节点时,此时的切分维度为x,如上点集合在x维从小到大排序为(2,3),(4,7),(5,4),(7,2),(8,1),(9,6);其中值为(7,2)。(注:2,4,5,7,8,9在数学中的中值为(5 + 7)/2=6,但因该算法的中值需在点集合之内,所以本文中值计算用的是len(points)//2=3, points[3]=(7,2))
b)(2,3),(4,7),(5,4)挂在(7,2)节点的左子树,(8,1),(9,6)挂在(7,2)节点的右子树。
c)构建(7,2)节点的左子树时,点集合(2,3),(4,7),(5,4)此时的切分维度为y,中值为(5,4)作为分割平面,(2,3)挂在其左子树,(4,7)挂在其右子树。
d)构建(7,2)节点的右子树时,点集合(8,1),(9,6)此时的切分维度也为y,中值为(9,6)作为分割平面,(8,1)挂在其左子树。至此k-d tree构建完成。

上述的构建过程结合下图可以看出,构建一个k-d tree即是将一个二维平面逐步划分的过程。

我们还可以结合下图(该图引自维基百科),从三维空间来看一下k-d tree的构建及空间划分过程。
首先,边框为红色的竖直平面将整个空间划分为两部分,此两部分又分别被边框为绿色的水平平面划分为上下两部分。最后此4个子空间又分别被边框为蓝色的竖直平面分割为两部分,变为8个子空间,此8个子空间即为叶子节点。
该图引自维基百科
如下为k-d tree的构建代码:

  1. def kd_tree(points, depth):
  2.     if 0 == len(points):
  3.         return None
  4.     cutting_dim = depth % len(points[0])
  5.     medium_index = len(points) // 2
  6.     points.sort(key=itemgetter(cutting_dim))
  7.     node = Node(points[medium_index])
  8.     node.left = kd_tree(points[:medium_index], depth + 1)
  9.     node.right = kd_tree(points[medium_index + 1:], depth + 1)
  10.     return node

1.2)寻找d维最小坐标值点
a)若当前节点的切分维度是d
因其右子树节点均大于等于当前节点在d维的坐标值,所以可以忽略其右子树,仅在其左子树进行搜索。若无左子树,当前节点即是最小坐标值节点。
b)若当前节点的切分维度不是d
需在其左子树与右子树分别进行递归搜索。
如下为寻找d维最小坐标值点代码:

  1. def findmin(n, depth, cutting_dim, min):
  2.     if min is None:
  3.         min = n.location
  4.     if n is None:
  5.         return min
  6.     current_cutting_dim = depth % len(min)
  7.     if n.location[cutting_dim] < min[cutting_dim]:
  8.         min = n.location
  9.     if cutting_dim == current_cutting_dim:
  10.             return findmin(n.left, depth + 1, cutting_dim, min)
  11.     else:
  12.         leftmin = findmin(n.left, depth + 1, cutting_dim, min)
  13.         rightmin = findmin(n.right, depth + 1, cutting_dim, min)
  14.         if leftmin[cutting_dim] > rightmin[cutting_dim]:
  15.             return rightmin
  16.         else:
  17.             return leftmin

1.3)新增节点
从根节点出发,若待插入节点在当前节点切分维度的坐标值小于当前节点在该维度的坐标值时,在其左子树插入;若大于等于当前节点在该维度的坐标值时,在其右子树插入。递归遍历,直至叶子节点。
如下为新增节点代码:

  1. def insert(n, point, depth):
  2.     if n is None:
  3.         return Node(point)
  4.     cutting_dim = depth % len(point)
  5.     if point[cutting_dim] < n.location[cutting_dim]:
  6.         if n.left is None:
  7.             n.left = Node(point)
  8.         else:
  9.             insert(n.left, point, depth + 1)
  10.     else:
  11.         if n.right is None:
  12.             n.right = Node(point)
  13.         else:
  14.             insert(n.right, point, depth + 1)

多次新增节点可能引起树的不平衡。不平衡性超过某一阈值时,需进行再平衡。
1.4)删除节点
最简单的方法是将待删节点的所有子节点组成一个新的集合,然后对其进行重新构建。将构建好的子树挂载到被删节点即可。此方法性能不佳,下面考虑优化后的算法。
假设待删节点T的切分维度为x,下面根据待删节点的几类不同情形进行考虑。
a)无子树
本身为叶子节点,直接删除。
b)有右子树
在T.right寻找x切分维度最小的节点p,然后替换被删节点T;递归处理删除节点p。
c)无右子树有左子树
在T.left寻找x切分维度最小的节点p,即p=findmin(T.left, cutting-dim=x),然后用节点p替换被删节点T;将原T.left作为p.right;递归处理删除节点p。
(之所以未采用findmax(T.left, cutting-dim=x)节点来替换被删节点,是由于原被删节点的左子树节点存在x维度最大值相等的情形,这样就破坏了左子树在x分割维度的坐标需小于其根节点的定义)
如下为删除节点代码:

  1. def delete(n, point, depth):
  2.     cutting_dim = depth % len(point)
  3.     if n.location == point:
  4.         if n.right is not None:
  5.             n.location = findmin(n.right, depth + 1, cutting_dim, None)
  6.             delete(n.right, n.location, depth + 1)
  7.         elif n.left is not None:
  8.             n.location = findmin(n.left, depth + 1)
  9.             delete(n.left, n.location, depth + 1)
  10.             n.right = n.left
  11.             n.left = None
  12.         else:
  13.             n = None
  14.     else:
  15.         if point[cutting_dim] < n.location[cutting_dim]:
  16.             delete(n.left, point, depth + 1)
  17.         else:
  18.             delete(n.right, point, depth + 1)

2)最近邻搜索
给定点p,查询数据集中与其距离最近点的过程即为最近邻搜索。
如在上文构建好的k-d tree上搜索(3,5)的最近邻时,本文结合如下左右两图对二维空间的最近邻搜索过程作分析。
a)首先从根节点(7,2)出发,将当前最近邻设为(7,2),对该k-d tree作深度优先遍历。以(3,5)为圆心,其到(7,2)的距离为半径画圆(多维空间为超球面),可以看出(8,1)右侧的区域与该圆不相交,所以(8,1)的右子树全部忽略。
b)接着走到(7,2)左子树根节点(5,4),与原最近邻对比距离后,更新当前最近邻为(5,4)。以(3,5)为圆心,其到(5,4)的距离为半径画圆,发现(7,2)右侧的区域与该圆不相交,忽略该侧所有节点,这样(7,2)的整个右子树被标记为已忽略。
c)遍历完(5,4)的左右叶子节点,发现与当前最优距离相等,不更新最近邻。所以(3,5)的最近邻为(5,4)。

如下为最近邻搜索代码:
3)复杂度分析

操作 平均复杂度 最坏复杂度
新增节点 O(logn) O(n)
删除节点 O(logn) O(n)
最近邻搜索 O(logn) O(n)

4)scikit-learn使用
scikit-learn是一个实用的机器学习类库,其有KDTree的实现。如下例子为直观展示,仅构建了一个二维空间的k-d tree,然后对其作k近邻搜索及指定半径的范围搜索。多维空间的检索,调用方式与此例相差无多。

  1. #!/usr/bin/python
  2. # -*- coding: UTF-8 -*-
  3. import numpy as np
  4. from matplotlib import pyplot as plt
  5. from matplotlib.patches import Circle
  6. from sklearn.neighbors import KDTree
  7.  
  8. np.random.seed(0)
  9. points = np.random.random((100, 2))
  10. tree = KDTree(points)
  11. point = points[0]
  12.  
  13. # kNN
  14. dists, indices = tree.query([point], k=3)
  15. print(dists, indices)
  16.  
  17. # query radius
  18. indices = tree.query_radius([point], r=0.2)
  19. print(indices)
  20.  
  21. fig = plt.figure()
  22. ax = fig.add_subplot(111, aspect='equal')
  23. ax.add_patch(Circle(point, 0.2, color='r', fill=False))
  24. X, Y = [p[0] for p in points], [p[1] for p in points]
  25. plt.scatter(X, Y)
  26. plt.scatter([point[0]], [point[1]], c='r')
  27. plt.show()

参考资料
[1] https://en.wikipedia.org/wiki/K-d_tree
[2] https://www.cs.cmu.edu/~ckingsf/bioinfo-lectures/kdtrees.pdf
[3] https://www.cise.ufl.edu/class/cot5520fa09/CG_RangeKDtrees.pdf
[4] http://www.cs.cornell.edu/courses/cs4780/2017sp/lectures/lecturenote16.html
[5] https://rosettacode.org/wiki/K-d_tree
[6] http://prody.csb.pitt.edu/_modules/prody/kdtree/kdtree.html
[7] http://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KDTree.html
[8] http://www.dcc.fc.up.pt/~pribeiro/aulas/taa1516/rangesearch.pdf
[9] https://courses.cs.washington.edu/courses/cse373/02au/lectures/lecture22l.pdf
[10] http://www.cs.princeton.edu/courses/archive/spr13/cos226/lectures/99GeometricSearch.pdf
[11] http://www.cs.umd.edu/class/spring2002/cmsc420-0401/pbasic.pdf
[12] https://www.ri.cmu.edu/pub_files/pub1/moore_andrew_1991_1/moore_andrew_1991_1.pdf

扫描二维码关注公众号,回复: 2695110 查看本文章

猜你喜欢

转载自blog.csdn.net/weixin_41770169/article/details/81566160