AdaBoost (Adaptive Boosting) est une méthode d'apprentissage d'ensemble dont le but est de combiner plusieurs classificateurs faibles en un classificateur fort.
En modifiant à plusieurs reprises les poids des données d'entraînement, les échantillons précédemment mal classés reçoivent plus
À chaque tour, un nouveau classificateur faible est ajouté jusqu'à ce qu'un certain taux d'erreur prédéterminé soit atteint ou qu'un nombre maximum d'itérations prédéterminé soit atteint.
2 Introduction détaillée de l'algorithme
Je suppose que tu aimes
Origine blog.csdn.net/qq_40206371/article/details/133204072