Diretório de artigos
tema
Registre a versão avançada da operação do tensor, existe uma versão primária, você pode consultá-la aqui .
Atualização após o uso subsequente
correlação de gradiente
torch.stack
De um modo geral, quando obtemos uma lista de tensores, precisamos realizar uma série de operações, como desanexar clone cpu numpy no tensor interno antes de obtermos um tensor de tensores com os mesmos dados por meio do construtor arch.tensor. No entanto, as operações desanexar e clonar são métodos que limparão o gradiente atual. Quando precisamos salvar o gradiente atual enquanto obtemos os dados atuais, precisamos usartorch.stack
esta função. Vale a pena notar que este método nos permite passar diretamente na lista de tensores, o que é muito conveniente. Quando precisamos listar tensores -> tensor dim superior, podemos chamá-lo diretamentetorch.stack
e, em seguida, desabilitar ou limpar manualmente o gradiente. Ou seja,test_tensor = torch.stack(list_of_tensor) + test_tensor.grad = None
Origem do documento