最近邻方法

这种方法它需要训练样本,但不用进行训练。总体比较好理解,不作详述

最近邻法

1-NN

待识模式离得最近的训练样本是哪类就归为哪类。

K-NN

待识模式离得最近的k个训练样本哪类的多就归为哪类。

剪辑最近邻法

清理两类见的边界,去掉类别混杂的样本,使两类边界更清晰,此即剪辑最近邻方法。这种方法的性能在理论上明显好于一般的最近邻法。

剪辑1-NN最近邻法

将测试样本分为参照集和测试集,剪辑掉测试集中被错分的样本,再将剩下判决正确的样本组成剪辑样本集,然后再利用剪辑样本集采用最近邻规则对待识模式进行分类。

剪辑K-NN最近邻法

简单说就是用K-NN进行法剪辑,再用1-NN法进行分类。

重复剪辑最近邻法

在样本足够多时,可以重复进行剪辑,从而提高分类性能。

MULTIEDIT算法
1.将样本集X^{(N)}随机分为s个子集,s≥3。

2.用最近邻法,以X_{(i+1)_{mods}}2为参照集,对X_i中的样本进行分类。

3.去掉上步错分的样本。

4.用所留下的样本构成新的样本集。

5.如果经过k次迭代再没有样本被剪辑掉则停止;否则转至第一步。

猜你喜欢

转载自blog.csdn.net/aaalswaaa1/article/details/81975330