k-近邻算法(KNN)

优点:精度高,对异常值不敏感,不需要数据输入假定

缺点:计算复杂度高,空间复杂度高

适用数据范围:数值型(在无限的数据中选取,数据连续)和标称型(在有限的数据中选取,存在true和false两种结果,数据离散)

工作原理:当存在一个训练样本集,且样本中的每个数据都存在标签,即能知道样本集中每个数据与所属分类的对应关系。

                 在输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最为相似的数据的分类标签。一般我们只选择样本数据集中前k个最为相似的数据,通常k是不大于20的整数。最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。        ————引自《机器学习实战》

一般流程:

1. 收集数据

2. 准备数据

3. 分析数据

4. 训练算法

5. 测试算法:计算预测错误率

扫描二维码关注公众号,回复: 1621810 查看本文章

6.使用算法



猜你喜欢

转载自blog.csdn.net/labpqsdr/article/details/79782038