Directorio de artículos
tema
Se registra una versión avanzada de las operaciones tensoriales.Existe una versión primaria, a la que se puede hacer referencia aquí .
Actualizar después de un uso posterior
correlación de gradiente
torch.stack
; En términos generales, cuando obtenemos una lista de tensores, necesitamos realizar una serie de operaciones como desconectar clon cpu numpy en el tensor interno antes de poder obtener un tensor de tensores con los mismos datos a través del constructor torch.tensor. Sin embargo, las operaciones separar y clonar son métodos que borrarán el gradiente actual. Cuando necesitamos guardar el gradiente actual mientras obtenemos los datos actuales, necesitamos usartorch.stack
esta función. Vale la pena señalar que este método nos permite pasar directamente la lista de tensores, lo cual es muy conveniente. Cuando necesitamos una lista de tensores -> tensor de atenuación más alto, podemos llamarlo directamentetorch.stack
y luego deshabilitar o borrar manualmente el gradiente. Es decir,test_tensor = torch.stack(list_of_tensor) + test_tensor.grad = None
fuente del documento