训练过程不可复现原因解决

今天在打比赛的过程中,发现代码不能够复现是一个很头痛的问题,相同的代码在同样的电脑上跑两次结果不一样,查阅资料之后发现,可以通过如下的方式解决:

torch.manual_seed(seed)
torch.cuda.manual_seed(seed)
torch.cuda.manual_seed_all(seed)  # if you are using multi-GPU.
np.random.seed(seed)  # Numpy module.
random.seed(seed)  # Python random module.
torch.manual_seed(seed)
torch.backends.cudnn.benchmark = False
torch.backends.cudnn.deterministic = True

固定了随机种子之后,相同的电脑上重复实验两次,可以得到相同的结果。
接下来在不同的电脑上进行实验过程,发现不同的gpu训练之后得到的结果并不相同,在网上找到了相应的解答

还有一种可能性,假如你在不同平台上,或者不同GPU,CPU上跑模型的话,
那么就算前面的benchmark、deterministic、种子全部都设置对了的话都会导致训练结果不同。
因为pytorch是基于CUDA API的,CUDA在不同设备上的伪随机数生成器不会是完全一样的,
这是由设备决定的。

综上所述,其实论文的实验结果是很难进行复现的,因为你不知道它用的是怎样的种子,什么样的平台,哪种型号的gpu等等各种各样的信息,所以论文复现基本上是不可能实现的。
另外一个很重要的点在于,如果是打相应的算法比赛,打比赛的过程中需要固定使用一台电脑,即使换电脑也要使用型号差不多的gpu来运行,这样才能保证打比赛的过程之中同一种模型的数据情况不会发生波动,否则自己的模型效果忽上忽下,容易影响比赛最终的结果。

おすすめ

転載: blog.csdn.net/znevegiveup1/article/details/120627106