[BUG记录] pytorch 内存占用量与张量尺寸不对等

今天利用torch.save储存了一个size为[1, 2048, 20, 33]torch.short类型的CPU张量在磁盘里,读取的时候写torch.load(......)[..., :1, :], 结果发现内存占用没有变为原来的1/20

解决方案:切片后加.contiguous()

发布了16 篇原创文章 · 获赞 12 · 访问量 9708

猜你喜欢

转载自blog.csdn.net/qq_34361099/article/details/103656198
今日推荐