模型权值共享方法有两种:
Module类的forward函数里多次调用同一个层
在Sequential模块中重复传入同一个Module实例
linear = nn.Linear(1, 1, bias=False)
net = nn.Sequential(linear, linear)
print(net)
for name, param in net.named_parameters():
init.constant_(param, val=3)
print(name, param.data)
"""输出:
Sequential(
(0): Linear(in_features=1, out_features=1, bias=False)
(1): Linear(in_features=1, out_features=1, bias=False)
)
0.weight tensor([[3.]])
"""
print(id(net[0]) == id(net[1]))
print(id(net[0].weight) == id(net[1].weight))
"""输出:因为在内存中,这两个线性层其实一个对象
True
True
"""
x = torch.ones(1, 1)
y = net(x).sum()
print(y)
y.backward()
print(net[0].weight.grad) # 单次梯度是3,两次所以就是6
"""因为模型参数里包含了梯度,所以在反向传播计算时,这些共享的参数的梯度是累加的:
tensor(9., grad_fn=<SumBackward0>)
tensor([[6.]])
"""
与之相比较的是:
linear1 = nn.Linear(1, 1, bias=False)
linear2 = nn.Linear(1, 1, bias=False)
net = nn.Sequential(linear1, linear2)
print(net)
for name, param innet.named_parameters():
init.constant_(param, val=3)
print(name, param.data)
x = torch.ones(1, 1)
y = net(x).sum()
print(y)
y.backward()
print(net[0].weight.grad)
"""
Sequential(
(0): Linear(in_features=1, out_features=1, bias=False)
(1): Linear(in_features=1, out_features=1, bias=False)
)
0.weight tensor([[3.]])
1.weight tensor([[3.]])
tensor(9., grad_fn=<SumBackward0>)
tensor([[3.]])
"""
这里linear1和linear2不是同一个对象.所以net的参数是有两个的.反向传播后,net[0].weight.grad是tensor([[3.]])
模型参数访问
这两个方法是在nn.Module类中实现的.继承自该类的子类也有相同方法.
.parameters()
.named_parameters()
具体实现细节:https://www.cnblogs.com/sdu20112013/p/12134330.html
模型参数初始化
通常对各种layer,pytorch已经实现好了默认的比较合理的初始化方式,不需要我们操心。如果要自己初始化权重,则遍历net的所有参数,对其执行相应的初始化策略.例如在下面的例子中,我们将权重参数初始化成均值为0、标准差为0.01的正态分布随机数,并依然将偏差参数清零。
forname, param in net.named_parameters():
if'weight'inname:
init.normal_(param, mean=0, std=0.01)
print(name, param.data)
elif 'bias'inname:
init.constant_(param,0)
print(name, param.data)
上面使用了torch.nn.init中自带的初始化方法,也可以自己实现一个满足自己需求的初始化方法.