今天利用torch.save
储存了一个size为[1, 2048, 20, 33]
的torch.short
类型的CPU张量在磁盘里,读取的时候写torch.load(......)[..., :1, :]
, 结果发现内存占用没有变为原来的1/20
解决方案:切片后加.contiguous()
今天利用torch.save
储存了一个size为[1, 2048, 20, 33]
的torch.short
类型的CPU张量在磁盘里,读取的时候写torch.load(......)[..., :1, :]
, 结果发现内存占用没有变为原来的1/20
解决方案:切片后加.contiguous()