【动手学深度学习】读写文件

【动手学深度学习】读写文件

加载和保存张量

 对于单个张量 我么可以直接调用load和save函数分别读写,这两个函数要求我们提供一个名称,save要求保存的变量作为输入

import torch
from torch import nn
from torch.nn import functional as F

# 创建一个长度为4的张量
x = torch.arange(4)
torch.save(x, 'x-file')


x2 = torch.load('x-file')
print(x2)

存储一个张量列表,然后把他们写入内存

y = torch.zeros(4)
torch.save([x,y],'x-files')
x2,y2 = torch.load('x-files')
(x2,y2)

我们甚至可以写入或者读取从字符串映射到张量的字典,方面读取权重

# 创建张量字典  保存张量
mydict = {
    
    'x':x,'y':y}
torch.save(mydict,'mydict')

mydict2 = torch.load('mydict')
mydict2

加载和保存模型参数

  深度学习框架提供内置函数来保存和加载整个网络,这里是保存模型的参数而不是保存整个模型

class MLP(nn.Module):
    def __init__(self):
        super().__init__()
        self.hidden = nn.Linear(20,256)
        self.output = nn.Linear(256,10)

    def forward(self,X):
        return self.output(F.relu(self.hidden(X)))
    
net = MLP()
X = torch.randn(size= (2,20))
Y = net(X)

取出模型的参数保存在一个mlp.params文件中

# 取出模型的参数保存在一个mlp.params文件中
torch.save(net.state_dict(),'mlp.params')

  恢复模型,实例化原始多层感知机模型的一个备份,我们不需要随机初始化模型参数,而是直接读取文件中存储的参数

clone = MLP()
clone.load_state_dict(torch.load('mlp.params'))
clone.eval()

 比较两个对象的模型参数,那么输入相同的X 计算的输出应该相同

Y_clone = clone(X)
Y_clone == Y

猜你喜欢

转载自blog.csdn.net/qq_44653420/article/details/131768005