Adaboost算法

      提升方法:就是从弱学习算法出发,反复学习,得到一系列弱分类器(又称为基本分类器),然后组合这些弱分类器,构成一个强分类器。大多数的提升方法都是改变训练数据的概率分布(训练数据的权值分布),针对不同的训练数据调用弱学习算法学习一系列弱分类器。

有两个问题需要解决:(1)在每一轮如何改变训练数据的权值或概率分布;(2)如何将弱分类器组合成一个强分类器。




猜你喜欢

转载自blog.csdn.net/zhouyidaniuniu/article/details/79727544
今日推荐