pytorch backward问题

pytorch中关于backward的很有意思的一个问题 <https://blog.csdn.net/shiheyingzhe/article/details/83054238>

但是我测试的结果在有些地方有点不同。就是第三个程序段中,x的梯度值是 他这个输出值乘以2

另外,关于torch.max()这种函数的反向梯度计算,是将其中的最大值的那个数进行反向梯度传播的计算。如果有两个数的值相等且为最大值,那么这两个数都会进行反向梯度的计算。

猜你喜欢

转载自www.cnblogs.com/yanxingang/p/10452923.html