Série de petites connaissances (dix-sept) Cet article (15 000 mots) | Interprétation de l'apprentissage profond | Taille du lot | Itérations | Époques |


Cliquez pour entrer dans la colonne :
"Chronique Intelligence Artificielle" Python et Python | Machine Learning | Deep Learning | Détection de cible | YOLOv5 et ses améliorations | YOLOv8 et ses améliorations | Points de connaissances clés | Divers tutoriels d'outils


Annuaire d'articles

  • Introduction
  • 2. Taille du lot
  • 3. Itérations
  • 4. Époques
  • 5. Donnez un exemple
  • 6. Brève interprétation


Il existe de nombreux paramètres à définir avant d'entraîner le réseau. Si vous ne comprenez pas la signification de chaque paramètre, vous ne pourrez pas définir les valeurs des paramètres de manière raisonnable et l'effet d'entraînement sera grandement affecté. Ce blog explique comment comprendre la taille des lots, les itérations et les époques dans la formation en ligne.

Introduction

Tout d’abord, il faut comprendre pourquoi la notion de Batch Size apparaît. L'algorithme d'apprentissage en profondeur est itératif, c'est-à-dire que l'algorithme est utilisé plusieurs fois pour obtenir les résultats afin d'obtenir le résultat optimal. Il existe deux manières de mettre à jour les paramètres réseau à chaque itération, qui sont également deux extrêmes :

Le premier est Batch Gradient Descent, ce qui signifie entrer toutes les données dans le réseau en même temps , examiner tous les échantillons de l'ensemble de données, puis calculer la fonction de perte et mettre à jour les paramètres. Cette méthode est coûteuse et lente en termes de calcul, et ne prend pas en charge l'apprentissage en ligne.

Le deuxième type est la descente de gradient stochastique, ce qui signifie qu'une seule donnée est entrée dans le réseau à la fois , et chaque fois qu'un nombre est visualisé,

おすすめ

転載: blog.csdn.net/weixin_44302770/article/details/135308645