pytorch实战遇到的bugs

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/kl1411/article/details/80720122

在训练和测试的时候都遇到这个问题,

_error_if_any_worker_fails()

RuntimeError: DataLoader worker (pid 8565) is killed by signal: Killed.

还有这个,

RuntimeError: $ Torch: not enough memory: you tried to allocate

经过研究,修改batch_size参数就不报错了。将batch_size改小一点,甚至是1都可以。

猜你喜欢

转载自blog.csdn.net/kl1411/article/details/80720122