[Uso de derivação automática]
Para a variável requerida x, defina require_grad == True
Para a função final y, execute backpropagation y.backward ()
Finalmente, você pode visualizar dy / dx = x.grad
Como calcular a derivada da quantidade média? ?
Derivação de alta dimensão
Assumindo que f é uma função de alta dimensão n em m, sua derivação pode ser considerada uma matriz jaco nxm
Você pode inserir um dz / dy m-dimensional para propagação traseira
y.backward (dz / dy)
Nesse caso, x.grad retorna dz / dx
Por que você não pode pedir orientação repetidamente? Qual é o princípio interno?
【Rede Neural】