pytorch error missing keys in state_dict

使用pytorch进行训练,不熟悉使用方法。训练时候采用了两块GPU,测试时候就报以上错误,查看了有关博客,找到原因:训练时候若设置使用多GPU训练,如下图:

本来如果单GPU的话,没有中间那一句,那一句是我后来加上的。

那么在测试的时候,也应该加上dataparallel这句话,否则就报以上错误:

如图,加了net=torch.nn.DataParallel(net)这句话,可以运行。

发布了59 篇原创文章 · 获赞 57 · 访问量 7万+

猜你喜欢

转载自blog.csdn.net/xiakejiang/article/details/93001512