Serie de artículos Aumento de datos-Aumento automático (1)

0. Prefacio

  • Presentación de la serie de artículos AutoAugment
    • AutoAugment: el trabajo pionero de la serie, define la forma de las estrategias de aumento de datos y utiliza el aprendizaje por refuerzo para forzar la búsqueda de estrategias óptimas de aumento de datos.
    • Aumento automático rápido: para aliviar el lento problema del entrenamiento de Aumento automático, se busca la estrategia óptima de mejora de datos a través del DA bayesiano y la coincidencia de densidad para lograr el mismo efecto que el Aumento automático.
    • PBA: para aliviar el problema del entrenamiento de AutoAugment que consume mucho tiempo, aprenda de la idea de PBT (algoritmo de búsqueda de hiperparámetros), busque el programa de estrategia de mejora de datos óptimo , para lograr el mismo efecto que AutoAugment.

1. Aumento automático

  • Informacion relevante:
  • Información básica del papel
    • Campo: mejora de datos
    • Unidad de autor: Google Brain
    • Hora de publicación: CVPR 2019
  • Resumen de una oración: encuentre la estrategia de mejora más adecuada para cada conjunto de datos a través de algoritmos de aprendizaje por refuerzo

1.1. Qué problema resolver

  • Ya se han propuesto muchos métodos de mejora de datos.
  • El método de mejora de datos correspondiente a cada conjunto de datos se diseña manualmente.
  • Hay relativamente pocos estudios sobre qué estrategia de mejora de datos se debe utilizar para cada conjunto de datos.

1.2. ¿Qué método se utilizó?

  • Encuentre la estrategia de mejora de datos correspondiente a cada conjunto de datos a través del método de aprendizaje por refuerzo.
  • Se utilizan un total de 16 métodos de mejora de datos
    • La mayoría de los métodos tienen un rango de magnitud.
    • Cada método subsiguiente corresponde a un valor de magnitud discreto (0-10), con un valor máximo.
    • Después de eso, el valor de la magnitud actual se calcula de acuerdo con el alcance de la magnitud, el valor discreto de la magnitud y el valor máximo del valor discreto de la magnitud.

imagen-20210217011049857

  • Estrategia de mejora de datos
    • Creo que hay dos contribuciones principales del artículo de AutoAugment. Una es que propone la forma de encontrar una estrategia de mejora de datos a través de AutoML y resulta factible, y la otra es que propone la forma básica de esta "estrategia de mejora de datos ".
    • La estrategia de mejora de datos de la siguiente serie de artículos sigue básicamente esta forma de estrategia de mejora de datos.
    • La política de mejora de datos (política) se compone de varias subpolíticas (subpolíticas).
    • Cada subestrategia consta de n métodos de mejora de datos (n = 2 en este artículo).
    • Cada método de mejora de datos corresponde a 3 parámetros: nombre del método, probabilidad de activación y valor de magnitud.
    • Hay un diagrama visual en el siguiente documento, que es más fácil de entender.
    • La estrategia propuesta en este documento contiene un total de 5 subestrategias.
  • Espacio de búsqueda
    • Una vez que se define la estrategia de mejora de datos, también se define el espacio de búsqueda.
    • Entonces, cuando el tamaño del espacio de búsqueda es (16 × 10 × 11) 1 0 (16 \ times 10 \ times 11) ^ 10( 1 6×1 0×1 1 )1 0
    • Varios valores numéricos se representan a su vez: 16 es el número de métodos de mejora de datos, 10 es el número de valores discretos de magnitud, 11 es el número de valores discretos de probabilidad (0 / 0,1 / ... /0.9/1.0 total 11 valores), 10 representa 5 subestrategias en total 10 método.
  • La implementación específica de la búsqueda se refuerza aprendiendo PPO + RNN, no puedo entenderlo, se refiere principalmente a NAS
    • Aprendizaje de arquitecturas transferibles para el reconocimiento de imágenes escalables
    • Búsqueda de arquitectura neuronal con aprendizaje por refuerzo
    • Diseñar arquitecturas de redes neuronales mediante el aprendizaje por refuerzo
    • Algoritmos de optimización de políticas proximales

1.3. ¿Qué tan efectivo es?

  • Los resultados de la búsqueda de cada conjunto de datos son buenos.

imagen-20210217013009301

  • La estrategia de mejora buscada tiene cierta capacidad de migración (la estrategia de mejora buscada en el conjunto de datos A también es efectiva cuando se usa el conjunto de datos B)

imagen-20210217013153950

1.4. Cuáles son los problemas y qué se puede aprender

  • Se trata de un trabajo pionero en este campo, cavando un hoyo.

    • Demuestre que la estrategia de mejora de los datos de búsqueda es factible y eficaz.
    • El espacio de búsqueda propuesto (definición de estrategia de mejora de datos) es muy útil y lo usaremos en el futuro.
  • Después de todo, es un trabajo pionero. Hay muchos problemas en muchos lugares. El más obvio es que el tiempo de capacitación es demasiado largo ...

    • Los trabajos posteriores tienen como objetivo fundamental resolver el problema del tiempo de formación demasiado prolongado.

2. Aumento automático rápido

2.1. Qué problema resolver

  • El tiempo de entrenamiento de AutoAugment es demasiado largo (Cifar10 requiere 5000 horas de GPU, ImageNet requiere 15000 horas de GPU)

2.2. ¿Qué método se utilizó?

  • Se utiliza el espacio de búsqueda de AutoAugment. Este artículo tiene una imagen que explica claramente la estructura de una subpolítica.
    • El espacio de búsqueda de este artículo es básicamente el mismo que el espacio de búsqueda de AutoAugment, con solo una diferencia: los dos parámetros (probabilidad py magnitud) del método de mejora de datos [0, 1]son valores continuos en el rango, en lugar de discretos.

imagen-20210217014543864

  • Se ha cambiado el método de búsqueda y se utiliza una estrategia de búsqueda basada en la coincidencia de densidad.

    • toda la idea:
      • Anteriormente, AutoAugment tenía que entrenar repetidamente muchos modelos secundarios para obtener resultados y luego filtrar estrategias.
      • En este artículo, los datos mejorados se consideran los datos faltantes en los datos de entrenamiento (los datos originales y los datos mejorados pertenecen a la misma distribución de datos).
      • Estrategia de mejora de datos de búsqueda, es decir, coincidencia de densidad entre dos conjuntos de datos de entrenamiento.
    • El algoritmo de búsqueda es el siguiente
      imagen-20210217115949050
      imagen-20210217133225406
  • Búsqueda de estrategia mejorada basada en la coincidencia de densidad

    • Realmente no entiendo esta parte, puedo entenderla aproximadamente.
    • Principalmente hay dos conjuntos de datos
      • Entrene el modelo a través de un conjunto de datos para obtener el modelo
      • Pruebe varias estrategias de mejora de datos en otro conjunto de datos para que el modelo obtenido en el paso anterior tenga la mayor precisión
    • De la fórmula, es ( Error de análisis de KaTeX: Secuencia de control no definida: \ Tao en la posición 1: \ ̲T̲a̲o̲ es el conjunto de estrategias de mejora, Θ ∗ \ Theta ^ *Θ es el parámetro del modelo obtenido por entrenamiento,RRR es la tasa de precisión del modelo,DA D_ADlaEs el segundo conjunto de datos)
      • imagen-20210217121025379
  • La implementación específica de este artículo (Github) utiliza HyperOpt y Ray, que vale la pena ver más de cerca para comprender mejor el contenido.

    • El BayesOptim más importante en el proceso anterior es ajustar la biblioteca directamente.

2.3. ¿Qué tan efectivo es?

  • Menos tiempo que AutoAugment, el efecto es casi el mismo

imagen-20210217133606051
imagen-20210217133644725
imagen-20210217133701966

2.4. Cuáles son los problemas y qué se puede aprender

  • Esto tiene un código de entrenamiento completo. Si quieres entender, necesitas estudiar el uso de Ray e HyperOpt.

3. PBA

  • Informacion relevante:
  • Información básica del papel
    • Campo: mejora de datos
    • Unidad autora: UC Berkeley
    • Hora de publicación: ICML 2019
  • Resumen de una oración: utilice el método de capacitación basado en la población para buscar el programa de políticas de aumento (no la política de aumento).

3.1. Qué problema resolver

  • El AutoAugment anterior era demasiado lento y quería mejorar la eficiencia de la búsqueda.

3.2. ¿Qué método se utilizó?

  • Este método busca la programación de la política de aumento, no la política de aumento fija.
    • La llamada política de aumento fijo, supongo, es similar a los resultados de AutoAugment y Fast AutoAugment. Por ejemplo, una estrategia contiene 5 subestrategias, y el método de mejora de datos y los parámetros de cada subestrategia son fijos.
    • El espacio de búsqueda en este artículo es en realidad un programa de políticas de aumento. Las ventajas son:
      • Juzgar la calidad de una política fija requiere entrenar un modelo, lo que lleva mucho tiempo, y juzgar la calidad de un cronograma no necesita preocuparse por el efecto anterior del modelo.
      • De acuerdo con los resultados experimentales, se puede obtener una mejor política después de buscar un horario.
    • Definición del calendario de la política de aumento
      • Orden de magnitud del espacio de búsqueda:
        • Para facilitar la comparación con AutoAugment, los parámetros utilizados son similares a AutoAugment
        • Se seleccionan un total de 15 métodos de mejora de datos (en comparación con AutoAugment, SamplePairing se elimina), cada método tiene dos parámetros (utilizando la probabilidad py la magnitud), por lo que el espacio de búsqueda es (10 × 11) 3 0 = 1,75 × 1 0 6 1 (10 \ times 11) ^ 30 = 1.75 \ times 10 ^ 61( 1 0×1 1 )3 0=1 . 7 5×1 06 1, mucho más grande que2.8 × 1 0 3 2 2.8 \ times 10 ^ 32de AutoAugment2 . 8×1 03 2
      • El denominado countvalor debe utilizar como máximo varios métodos de mejora de datos, y la siguiente probabilidad debe ser la probabilidad del valor de los tres valores de recuento en el bucle for a continuación.
      • Se puede ver que en comparación con AutoAugment, el horario de este artículo no tiene el concepto de "subestrategias fijas", es decir, las subestrategias de este artículo no son fijas.

imagen-20210217203332847

  • ¿Cómo encontrar y aprender un horario?
    • Piense en la búsqueda de políticas de aumento como un caso especial de aprendizaje de programación de hiperparámetros.
    • Consulte Entrenamiento basado en la población (algoritmo de búsqueda de hiperparámetros) para lograr, PBT busca no hiperparámetros óptimos fijos, sino programa de hiperparámetros.
    • La idea básica de PBT
      • Paso 1: inicialice un número fijo de modelos aleatoriamente y entrénelos en paralelo.
      • Paso 2: Después de entrenar durante un cierto número de veces, realizar exploit-and-exploreoperaciones, eliminar los modelos con efectos pobres, asignar los parámetros y pesos de los modelos con buenos efectos y perturbar los hiperparámetros de los modelos con buenos efectos (perturbar, cambiar ligeramente el parámetros).
        • Dado que no se requiere reentrenamiento, la cantidad de cálculo requerida es relativamente pequeña.
    • Este artículo propone PBA basado en PBT, y su idea básica de realización se divide en 5 pasos
      • Paso: cada paso requiere una ronda de entrenamiento (un descenso de gradiente de época)
      • Eval: verificar el efecto de un experimento a través del conjunto de validación
      • Listo: este experimento está listo para la operación de explotación y exploración, 3 pasos (entrenamiento 3 épocas)
      • Explotación: utilice la estrategia de selección de truncamiento, que consiste en reemplazar los modelos del 25% inferior con los modelos del 25% superior
      • Explorar: para cada hiperparámetro, inicialícelo de forma aleatoria o realice una perturbación aleatoria según los resultados de la ronda anterior. Los pasos específicos son los siguientes
        • La probabilidad del 20% es una inicialización aleatoria y la probabilidad del 80% es una perturbación aleatoria.
        • El inicio de la perturbación aleatoria es simplemente para transformar los parámetros (la amplitud de transformación es amt, puede ser para aumentar amt o disminuir amt)

imagen-20210217205404376

3.3. ¿Qué tan efectivo es?

  • Se enfatiza repetidamente en el documento que algunos ajustes de parámetros son para compararlos con AutoAugment, por no decir que dichos ajustes tienen un buen efecto después de la prueba.
  • Comparado con AutoAugment, el efecto es similar y el tiempo es menor

imagen-20210217205555003
imagen-20210217205529063

3.4. Cuáles son los problemas y qué se puede aprender

  • Según Fast AutoAugment, el efecto parece ser inferior al Fast AutoAugment
  • También lo realiza Ray, y el código fuente también está disponible, para que puedas aprenderlo.

Supongo que te gusta

Origin blog.csdn.net/irving512/article/details/113838337
Recomendado
Clasificación