pytorch 0.4 改动: cannot resize variables that require grad

在pytorch0.3中做过一些关于张量求梯度的工作,目的是扩展一下pytorch的module,今天升级pytorch0.4,发现原先的代码不可用,报错如下:
RuntimeError: cannot resize variables that require grad

在pytorch 0.3中,允许对求梯度的变量改变size,改变size后,再次求偏导,梯度置0。实际上这是一个逻辑上的bug,当张量size减小时,某些分量消失,对于这些分量求偏导,应该报异常,如果置0,则会混淆梯度消失和分量消失的概念。好在pytorch 0.4中及时做出更正。

发布了55 篇原创文章 · 获赞 238 · 访问量 21万+

猜你喜欢

转载自blog.csdn.net/zkp_987/article/details/80683635