AdaBoost (Adaptive Boosting) es un método de aprendizaje conjunto cuyo objetivo es combinar múltiples clasificadores débiles en un clasificador fuerte.
Al modificar repetidamente los pesos de los datos de entrenamiento, las muestras previamente mal clasificadas reciben más
En cada ronda, se agrega un nuevo clasificador débil hasta que se alcanza una cierta tasa de error predeterminada o se alcanza un número máximo predeterminado de iteraciones.