Semi-aprendizaje supervisado a fondo contra la construcción incremental método de auto-etiquetado red de estilo

1. Resumen

    El éxito se debe en parte a la profundidad de la red neuronal de datos de entrenamiento a gran escala bien marcados. Sin embargo, con el creciente tamaño de la recogida de datos moderno, etiquetando el acceso a la información extremadamente difícil. En este trabajo se propone un estudio de profundidad incremental basado en el método de auto-etiquetado semi-supervisado genera confrontación al estilo de la red, el método para facilitar el proceso de formación a través de la distribución de datos virtual de la etiqueta seguirá siendo sin marcar. Específicamente, el proceso de asignación de la etiqueta virtual, el documento presenta un método basado en el tiempo de auto-marcado. Luego, con el fin de asignar etiquetas más virtuales de forma dinámica a los datos en el proceso de formación, el documento adopta etiqueta de actualización incremental selección y enfoque por fases. Por último, el documento introduce un factor adicional de equilibrio (Plazo factor de equilibrio, BT) elemento, la pérdida de información durante las muestras de entrenamiento equilibrio.

2. Introducción

    Para la clasificación semi-supervisado contra la red utilizando la fórmula (Gans), la mayoría de las redes se utilizan para salidas de productos k mediante la modificación de un discriminador convencional correspondiente a las clases GAN k. Para utilizar más datos de entrenamiento no marcados, típicamente generar una sección adicional (k + 1) -ésima clase desde el generador para mejorar la capacidad de identificar discriminador. Estas últimas características se pueden extraer más información para distinguir los datos verdaderos y falsos datos.

    El documento dedicado a explorar a partir de un método de marcado incremental (el ISL -GaN), y embebido en marco sólido SSL (SSL), con el fin de mejorar el rendimiento de la clasificación en el campo de la GAN.

3. Métodos

    En primer lugar, la exactitud de la predicción de las etiquetas superiores, la mayoría de los datos de entrenamiento, incluyendo datos de etiqueta y datos no etiquetados, en el proceso de formación se han predicción correcta. Para más prueba de la robustez del modelo del marcador de ruido, el papel añadió algo de bandera de error de muestra en el modelo de formación, se encontró que un cierto porcentaje de error etiqueta no afecta a la exactitud de la prueba final.

    A continuación se describe el modelo de papel propuesto. . Como se muestra en la figura 1, el modelo propuesto consta de dos partes: la primera parte se basa en la consistencia del modelo GAN semi-supervisado. La segunda parte es responsable de asignar los datos de la etiqueta virtual sin rotular, la época a intervalos regulares, asignar una etiqueta virtual para datos de alta fiabilidad para actualizar el conjunto de datos de entrenamiento etiquetado.

Aquí Insertar imagen Descripción

Progreso GAN (Isli -GAN) de la marca de la Figura 1. incremental desde entonces. Gris y naranja para las dos partes del modelo. Diferentes formas representan diferentes etiquetas de los datos de entrada, los datos marcados en azul, gris sin etiquetar

    Conocido por las diferentes etapas de la salida de muestra de entrenamiento de la red estable, baja probabilidad de errores de clasificación, las muestras fácilmente mal clasificados a menudo se produce cerca del borde de clasificación, que conducirá inevitablemente a la inestabilidad de la salida de muestra. Con esto en mente, cada muestra de entrenamiento con el fin de mantener una relativamente estable y seguro etiqueta virtual, seleccionar el papel calculado el promedio de la producción histórica para asegurar la estabilidad.

    Teniendo en cuenta la muestra final del estudio de etiqueta de alta velocidad de datos correctamente predicho por la forma semi-supervisado, el papel utilizando este método y por la colocación de una marca sin etiqueta de datos virtuales para actualizar el conjunto de datos de entrenamiento. Si una muestra no marcada con fue asignado varias veces con una etiqueta de categoría, a continuación, poner esta etiqueta de clase como una etiqueta virtual de la muestra. Durante el entrenamiento, uno muestras sin etiqueta asignar una etiqueta virtual, puede aumentar efectivamente el número de la muestra etiquetada SSL, lo que aumenta la precisión de la clasificación.

    Aquí, tenemos que establecer un umbral de credibilidad que se le asigna una etiqueta virtual de la muestra. Este umbral no puede ser demasiado baja, no demasiado alta. Si se establece demasiado alto, digamos 100% de confianza, tendrá como resultado: Cuando utilizamos esta parte del modelo de datos se actualiza cuando el valor de la pérdida calculada es 0, no hay más actualizaciones al modelo. Demasiado bajo, lo que resulta en esta parte de los datos no se puede confiar, y lo usamos para esta idea es contraria a los datos de entrenamiento. Por lo tanto, con el fin de aumentar la contribución de muestras marcadas virtuales han sido modelo de baja pérdida de módulos, el papel va a equilibrar elemento factor de exp (BT) (pin) en la pérdida CE entropía cruzada original, la pérdida final de supervisión por la siguiente representación fórmula (detallado ver función de pérdida de modelo de papel original, aquí solamente el término dado factor de equilibrio introducido por la fórmula de referencia):
Aquí Insertar imagen Descripción
PI indica la probabilidad de la muestra perteneciente a la clase i, yi representativo del valor codificado de una sola caliente de la clase i. El parámetro n es el control sobre la pérdida de peso de factor de equilibrio de peso, el valor predeterminado es 2,0.

4. Conclusión

    Los resultados experimentales muestran que el método se puede obtener MNIST, los resultados de la última SSL y SVHN CIFAR-10 conjuntos de datos. En particular, el modelo del papel en las condiciones de etiquetado de muestras de desempeño menos favorable. Para 1000 conjuntos de datos de imagen sólo etiquetados CIFAR-10 se puede lograr 11,2% de error de medición, y 1000 para 500 SVHN marcado conjunto de datos, puede alcanzar casi el mismo error en la prueba de rendimiento de 3,5%.
Aquí Insertar imagen Descripción

la información más interesante código de exploración preocupación BBIT
Publicado seis artículos originales · ganado elogios 0 · Vistas 39

Supongo que te gusta

Origin blog.csdn.net/ShenggengLin/article/details/105301847
Recomendado
Clasificación