pytorch multi-task error: cuda out of memory

RuntimeError: CUDA out of memory. Tried to allocate 196.00 MiB (GPU 0; 11.91 GiB total capacity; 11.26 GiB already allocated; 47.06 MiB free; 50.22 MiB cached)

  1. 可能跟改变输入大小(input image size)、batch_size没什么关系,不过你可以先按照这两点排查
  2. 出现问题的原因可能是你不熟悉MTL,一次用了太多模型,比如预测每一个类别都分别用一个task(一个分支模型)去学习预测。最终占用空间太大,显存爆了

猜你喜欢

转载自blog.csdn.net/qxqxqzzz/article/details/107212222