Semi-apprentissage supervisé profondeur de construction progressive contre la méthode d'auto-étiquetage style réseau

1. Résumé

    Le succès est dû en partie à la profondeur du réseau de neurones des données de formation à grande échelle bien marqués. Cependant, avec la taille croissante de la collecte de données modernes, l'accès à l'information étiquetage extrêmement difficile. Cet article propose une étude en profondeur progressive basée sur la méthode d'auto-étiquetage semi-supervisé génère une confrontation de type réseau, la méthode pour faciliter le processus de formation grâce à la distribution des données de marquage virtuel continuent d'être banalisée. Plus précisément, le processus d'allocation d'étiquette virtuelle, le papier présente une méthode basée sur le temps d'auto-marquage. Ensuite, afin d'attribuer des balises virtuels dynamiquement aux données dans le processus de formation, le papier adopte le dépistage étiquette de mise à jour progressive et par étapes. Enfin, le document introduit un élément d'équilibrage autre facteur (facteur équilibre terme, BT), perte d'informations au cours des échantillons de formation de l'équilibre.

2. introduction

    Pour la classification semi-supervisée contre réseau en utilisant la formule (Gans), la plupart des réseaux sont utilisés pour produire k sorties en modifiant un discriminateur classique correspondant aux k classes de GAN. Pour utiliser en outre des données d'apprentissage non marquées, génèrent typiquement une section supplémentaire (k + 1) ième classe du générateur afin d'améliorer la capacité à identifier discriminateur. Les dernières caractéristiques peuvent extraire plus d'informations pour distinguer les vraies données et les données fausses.

    Le document consacré à l'exploration d'un procédé de marquage supplémentaire (ISL -GaN), et intégré dans le cadre SSL solide (SSL), afin d'améliorer les performances de classification dans le domaine de GAN.

3. Méthodes

    Tout d'abord, la précision de la prédiction des grandes marques, la plupart des données de formation, y compris les données d'étiquette et les données non marquées, dans le processus de formation ont été prédiction correcte. Pour plus de tester la robustesse du modèle du marqueur de bruit, a ajouté le journal un certain indicateur d'erreur exemple dans la formation de modèle, a constaté qu'un certain pourcentage d'erreur d'étiquette affecte la précision du test final.

    Ce qui suit décrit le modèle de papier proposé. . Comme le montre la figure 1, le modèle proposé se compose de deux parties: la première partie est basée sur la cohérence du modèle GAN semi-supervisé. La deuxième partie est responsable de l'attribution des données étiquette virtuelle sans étiquette, l'époque à intervalles réguliers, attribuer une étiquette virtuelle pour les données de haute fiabilité pour mettre à jour l'ensemble des données de formation étiquetée.

Insérer ici l'image Description

Progrès GAN (ISLI -GAN) de la figure 1. marque incrémentale depuis. Gris et orange pour les deux parties du modèle. Différentes formes représentent différentes étiquettes de données d'entrée, les données indiquées en bleu, gris non balisé

    Connu pour les différentes étapes de la sortie de l'échantillon de formation du réseau stable, faible probabilité d'erreur de classification, se produit souvent des échantillons facilement mal classés près du bord de la classification, ce qui conduira inévitablement à l'instabilité de la production échantillon. Avec cela à l'esprit, chaque échantillon de formation afin de maintenir une étiquette virtuelle relativement stable et sûr, sélectionnez le papier a calculé le nombre moyen de production historique pour assurer la stabilité.

    Compte tenu de l'échantillon final de l'étude de l'étiquette de débit de données élevé correctement prédit par la voie semi-supervisé, le papier en utilisant cette méthode et en définissant une étiquette virtuelle des données non marquée de mettre à jour l'ensemble des données de formation. Si un échantillon non marqué a été attribué à plusieurs reprises avec une étiquette de catégorie, puis mettre cette étiquette de classe comme une étiquette virtuelle de l'échantillon. Pendant la formation, un des échantillons non étiquetés attribuer une étiquette virtuelle, peut effectivement augmenter le nombre d'échantillons étiquetés SSL, augmentant ainsi la précision de la classification.

    Ici, nous avons besoin de fixer un seuil de crédibilité en tant que balise virtuelle échantillon est attribué. Ce seuil ne peut pas être trop faible, pas trop élevé. Si la valeur est trop élevée, disons 100% de confiance, se traduira par: Lorsque nous utilisons cette partie du modèle de données est mise à jour lorsque la valeur de la perte calculée est 0, aucune mise à jour du modèle. Trop faible, ce qui dans cette partie des données ne peut pas faire confiance, et nous l' utilisons pour cette idée est contraire aux données de formation. Par conséquent, afin d'augmenter la contribution des échantillons étiquetés virtuels ont été équipés modèle à faible perte, le papier équilibrera élément de facteur (BT) exp (broche) dans le CE de perte d'entropie croisée d' origine, la perte finale de contrôle par la représentation de la formule suivante (détaillée voir fonction d' origine de perte de modèle de papier, ici que le facteur d'équilibre terme donné introduite par la formule de référence):
Insérer ici l'image Description
PI indique la probabilité de l'échantillon appartenant à la classe i, représentant yi de la valeur codée d' un chaud de la classe i. Le paramètre n est le contrôle de la perte de poids de facteur d'équilibre de poids, la valeur par défaut est de 2,0.

4. Conclusion

    Les résultats expérimentaux montrent que la méthode peut être obtenue MNIST, les résultats de la dernière SSL et SVHN-10 ensembles ICRA de données. En particulier, le modèle du papier dans les conditions d'étiquetage échantillons de performance moins favorable. Pour 1000 seulement des ensembles de données d'image étiquetés-10 peut ICRA être atteint 11,2% de l'erreur de mesure, et 1000 pour 500 ensembles de données marqué à SVHN, peut atteindre presque la même erreur de test de performance de 3,5%.
Insérer ici l'image Description

code d'analyse des informations plus intéressantes concernent BBIT
Publié six articles originaux · louanges gagnées 0 · Vues 39

Je suppose que tu aimes

Origine blog.csdn.net/ShenggengLin/article/details/105301847
conseillé
Classement