[Compréhension approfondie de PyTorch] Dérivation automatique de PyTorch : calcul du gradient de tenseur, rétropropagation et utilisation d'optimiseurs
Dérivation automatique PyTorch : calcul du gradient du tenseur, rétropropagation et utilisation de l'optimiseur
PyTorch est un cadre d'apprentissage en profondeur open source qui fournit un puissant mécanisme de dérivation automatique qui nous permet de calculer facilement le gradient des tenseurs, d'effectuer une rétropropagation et d'utiliser des optimiseurs pour mettre à jour les paramètres du modèle. Dans cet article, nous expliquerons en détail le mécanisme de dérivation automatique de PyTorch et les concepts associés.
Calcul du gradient des tenseurs
Dans PyTorch, le tenseur est l'unité de base de stockage et de transformation des données. Chaque tenseur a un requires_grad
attribut qui indique si les gradients doivent être calculés. Par défaut, cette propriété est False, c'est-à-dire qu'aucun gradient n'est calculé. Nous pouvons requires_grad=True
activer le calcul du gradient en définissant.
import torch
x = torch.tensor(