Machine Learning Techniques 笔记:2-8 Ada Boosting

先算出错误率Epselo t,把犯错误的点做(1-Et)的放缩,正确的点做Et比例的放缩=》正确的乘以♦t,错误的除以♦t

通常,♦t≥1,因为1/2是丢铜板乱猜的概率。只要base algroithm比乱猜好,♦t大于等于1,使得正确的得以缩小,错误的得以放大,更加专注在犯错误的点上面,来得到不一样的hypothesis。有点类似于PLA,有错即改


只要比乱猜效果好,最终Ein总可收敛

t=1,放大error

t=2,进一步切割,放大中间的error

t=3

经过足够的迭代,可以得出一条完美的分界线


猜你喜欢

转载自blog.csdn.net/f2157120/article/details/80446129