【pyTorch】入门

【自动求导的使用】

对于要求导的变量x,设置require_grad == True

对于最终的函数y, 要运行反向传播 y.backward()

最终可以查看 dy / dx = x.grad

中间量的求导怎么算??

【高维求导】

假设 f 为高维函数 n to m 维,其求导可以认为是一个jaco矩阵 nxm 的

你可以输入一个m维的 dz / dy 进行反向传播

y.backward( dz / dy)

这样的话x.grad返回的就是 dz / dx

反复求导为啥不行?内部是什么原理?

【神经网络】

猜你喜欢

转载自www.cnblogs.com/yesuuu/p/12744716.html