Pytorch中的register_buffer()

2022-10-11 13:39:27

1.register_buffer( )的使用

回顾模型保存:torch.save(model.state_dict()),model.state_dict()是一个字典,里边存着我们模型各个部分的参数。
在model中,我们需要更新其中的参数,训练结束将参数保存下来。但在某些时候,我们可能希望模型中的某些参数参数不更新(从开始到结束均保持不变),但又希望参数保存下来(model.state_dict() ),这是我们就会用到 register_buffer() 。

随着例子边看边讲

例子1:使用类成员变量(类成员变量并不会在我们的model.state_dict(),即无法保存)

成员变量(self.tensor)在前向传播中用到,希望它也能保存下来,但他不在我们的state_dict中。

classmy_model(nn.Module):def__init__(self):super(my_model, self).__init__()
        self.conv= nn.Conv2d(1,1,3,1,1)
        self.tensor= torch.randn(size=(1,1,5,5))# 成员变量defforward(self, x):return self.conv(x)+ self.tensor
        
x= torch.randn(size=(1,1,5,5))
model= my_model()
model(x)print(model.state_dict())print('..........')print(model.tensor)# OrderedDict([('conv.weight', tensor([[[[ 0.1797, -0.1616,  0.1784],#           [ 0.2831, -0.0466,  0.1068],#           [ 0.0733, -0.2953, -0.2349]]]])), ('conv.bias', tensor([-0.3234]))])# ..........# tensor([[[[-0.0058,  0.3659,  0.8884, -0.9833,  0.4962],#           [ 0.1103,  0.5936,  0.2021, -1.8994,  0.1486],#           [ 0.9335,  0.1341,  0.1928,  0.5942,  0.7708],#           [-0.8632,  1.4890, -0.3192,  1.2532,  0.8017],#           [ 0.6020,  0.0112,  0.4995, -0.7160, -1.1624]]]])

例子2:使用类成员变量(类成员变量并不会随着model.cuda()复制到gpu上)

将上一个例子中的模型复制到GPU上,但成员变量并不会随着model.cuda()复制到gpu上。torch中如果有数据不在同一个“地方”进行“运算”,程序会报错, 即self.tensor在 “ cpu ” 上,模型和 x 在 “ cuda:0 ” 上。

classmy_model(nn.Module):def__init__(self):super(my_model, self).__init__()
        self.conv= nn.Conv2d(1,1,3,1,1)
        self.tensor= torch.randn(size=(1,1,5,5))# 成员变量defforward(self, x):return self.conv(x)+ self.tensor
        
x= torch.randn(size=(1,1,5,5))
x= x.to('cuda')
model= my_model().cuda()
model(x)print(model.state_dict())print('..........')print(model.tensor)# 报错!!!# RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu!

例子3:使用register_buffer()

self.register_buffer(‘my_buffer’, self.tensor):my_buffer是名字,str类型;self.tensor是需要进行register登记的张量。这样我们就得到了一个新的张量,这个张量会保存在model.state_dict()中,也就可以随着模型一起通过.cuda()复制到gpu上。

classmy_model(nn.Module):def__init__(self):super(my_model, self).__init__()
        self.conv= nn.Conv2d(1,1,3,1,1)
        self.tensor= torch.randn(size=(1,1,5,5))
        self.register_buffer('my_buffer', self.tensor)defforward(self, x):return self.conv(x)+ self.my_buffer# 这里不再是self.tensor


x= torch.randn(size=(1,1,5,5))
x= x.to('cuda')
model= my_model().cuda()
model(x)print(model.state_dict())print('..........')print(model.tensor)print(model.my_buffer)# OrderedDict([('my_buffer', tensor([[[[ 0.0719, -0.5347,  0.5229, -0.5599, -0.5907],#           [-0.2743, -0.6166, -1.6723, -0.0386,  0.9706],#           [-1.0789,  0.9852,  0.1703, -0.6299, -0.5167],#           [ 0.4972, -0.9745, -0.3185,  0.3618,  0.2458],#           [ 1.5783, -0.5800,  0.1895, -0.9914,  1.1207]]]], device='cuda:0')), ('conv.weight', tensor([[[[-0.0192,  0.0500,  0.0635],#           [ 0.3025, -0.2644,  0.2325],#           [ 0.0806,  0.0457, -0.0427]]]], device='cuda:0')), ('conv.bias', tensor([-0.3074], device='cuda:0'))])# ..........# tensor([[[[ 0.0719, -0.5347,  0.5229, -0.5599, -0.5907],#           [-0.2743, -0.6166, -1.6723, -0.0386,  0.9706],#           [-1.0789,  0.9852,  0.1703, -0.6299, -0.5167],#           [ 0.4972, -0.9745, -0.3185,  0.3618,  0.2458],#           [ 1.5783, -0.5800,  0.1895, -0.9914,  1.1207]]]])# tensor([[[[ 0.0719, -0.5347,  0.5229, -0.5599, -0.5907],#           [-0.2743, -0.6166, -1.6723, -0.0386,  0.9706],#           [-1.0789,  0.9852,  0.1703, -0.6299, -0.5167],#           [ 0.4972, -0.9745, -0.3185,  0.3618,  0.2458],#           [ 1.5783, -0.5800,  0.1895, -0.9914,  1.1207]]]], device='cuda:0')

总结

成员变量:不更新,但是不算是模型中的参数(model.state_dict())
通过register_buffer()登记过的张量:会自动成为模型中的参数,随着模型移动(gpu/cpu)而移动,但是不会随着梯度进行更新。

2.Parameter与Buffer

模型保存下来的参数有两种:一种是需要更新的Parameter,另一种是不需要更新的buffer。在模型中,利用backward反向传播,可以通过requires_grad来得到buffer和parameter的梯度信息,但是利用optimizer进行更新的是parameter,buffer不会更新,这也是两者最重要的区别。这两种参数都存在于model.state_dict()的OrderedDict中,也会随着模型“移动”(model.cuda())。

2.1 model.buffers()和model.named_buffers : 对模型中的buffer进行访问

与model.parameters()和model.named_parameters()相同,只是一个是对模型中的parameter访问,一个是对模型中的buffer访问。

classmy_model(nn.Module):def__init__(self):super(my_model, self).__init__()
        self.conv= nn.Conv2d(1,1,3,1,1)
        self.tensor= torch.randn(size=(1,1,5,5))
        self.tensor2= torch.randn(size=(1,1))
        self.register_buffer('my_buffer', self.tensor)
        self.register_buffer('my_buffer2', self.tensor2)defforward(self, x):return self.conv(x)+ self.my_buffer


x= torch.randn(size=(1,1,5,5))
x= x.to('cuda')
model= my_model().cuda()
model(x)for parain model.parameters():print(para)print('.............................................................')for buffin model.buffers():print(buff)# Parameter containing:# tensor([[[[ 0.1019,  0.3182,  0.1563],#           [-0.0207, -0.0562,  0.1807],#           [ 0.2703, -0.1186, -0.2867]]]], device='cuda:0', requires_grad=True)# Parameter containing:# tensor([-0.0992], device='cuda:0', requires_grad=True)# .............................................................# tensor([[[[ 1.3138,  1.3372,  1.6745, -0.8393, -0.1983],#           [-1.3365,  1.0321, -0.7752,  1.4250,  0.9376],#           [-0.9306,  0.1586,  0.5963, -1.0124, -0.6470],#           [ 0.6429, -1.1386,  0.8107, -0.8500,  0.4866],#           [ 0.0342,  1.5359,  0.6636,  0.2488,  0.0490]]]], device='cuda:0')# tensor([[0.7401]], device='cuda:0')

2.2 Buffer变量可以通过backward()得到梯度信息

buffer变量和parameter变量一样,都可以通过backward()得到梯度信息,但区别是优化器optimizer更新的parameter变量,所以buffer并不会更新。

classmy_model(nn.Module):def__init__(self):super(my_model, self).__init__()
        self.tensor= torch.randn(size=(2,2))
        self.register_buffer('my_buffer', self.tensor)defforward(self, x):return self.my_buffer* x


x= torch.randn(size=(3,2,2))print(x.sum(0))
model= my_model()for iin model.buffers():
    i.requires_grad=True
y= model(x)
y.sum().backward()print(model.my_buffer.grad)# tensor([[ 0.9373, -1.0798],#         [-2.3031,  3.7299]])# tensor([[ 0.9373, -1.0798],#         [-2.3031,  3.7299]])

2.3 Buffer变量不需要求梯度时,可通过Parameter代替

在构造模型时候,可以将某些Parameter从模型中通过“ .detach() ” 方法或直接将Parameter的requires_grad设置为False,使得此变量不求梯度,也可达到不更新的效果。

  1. 通过nn.Paramter()将张量设置为变量,同时设置requires_grad为False
  2. 这个变量也会随着模型保存,并且随着模型“移动”
  3. 可达到与buffer相同的效果

为什么要存在buffer:
buffer与parameter具有 “同等地位”,所以将某些不需要更新的变量“拿出来”作为buffer,可能更方便操作,可读性也更高,对Paramter的各种操作(固定网络的等)可能也不会“误伤到” buffer这种变量。buffer最重要的意义应该是需要得到梯度信息时,不会更新因为optimizer而更新,这也是parameter所不能代替的。

classmy_model(nn.Module):def__init__(self):super(my_model, self).__init__()
        self.conv= nn.Conv2d(1,1,3,1,1)
        self.tensor= nn.Parameter(torch.randn(size=(1,1,5,5)), requires_grad=False)defforward(self, x):return self.conv(x)+ self.tensor

x= torch.randn(size=(1,1,5,5))
x= x.to('cuda')
model= my_model().cuda()
model(x)for parain model.named_parameters():print(para)# ('tensor', Parameter containing:# tensor([[[[ 0.3341,  1.1750, -1.9723, -1.6728, -0.2374],#           [-0.6646,  0.5763, -1.5781,  0.5802,  1.3265],#           [-0.0238,  0.3929,  1.0691,  2.0344, -0.7371],#           [-1.5995, -0.0445,  0.6577,  0.5779,  0.7600],#           [-0.6772,  1.6578, -0.8476, -0.7227, -0.5070]]]], device='cuda:0'))# ('conv.weight', Parameter containing:# tensor([[[[-0.3241, -0.3318,  0.0154],#           [ 0.0100,  0.0003, -0.0430],#           [-0.3331, -0.2996, -0.1164]]]], device='cuda:0', requires_grad=True))# ('conv.bias', Parameter containing:# tensor([0.2876], device='cuda:0', requires_grad=True))

3.BN中的参数

最近发现bn中的running_mean,running_var, num_batches_tracked这三个参数是buffer类型的,这样既可以用state_dict()保存,也不会随着optimizer更新。
此外,我们要注意,state_dict()只会保存parameters和buffers类型的变量,如果我们有变量没有转成这两种类型,最后是不会被保存的!!!

classnetwork(nn.Module):def__init__(self):super(network, self).__init__()
        self.conv= nn.Conv2d(1,1,1, padding=0)
        self.bn= nn.BatchNorm2d(2)defforward(self, x):return self.bn(self.conv(x))

net= network()for n, ain net.named_buffers():print(n, a)print('.........')for win net.parameters():print(w)print('.........')for vin net.state_dict():print(v)# bn.running_mean tensor([0., 0.])# bn.running_var tensor([1., 1.])# bn.num_batches_tracked tensor(0)# .........# Parameter containing:# tensor([[[[0.1984]]]], requires_grad=True)# Parameter containing:# tensor([0.4412], requires_grad=True)# Parameter containing:# tensor([1., 1.], requires_grad=True)# Parameter containing:# tensor([0., 0.], requires_grad=True)# .........# conv.weight# conv.bias# bn.weight# bn.bias# bn.running_mean# bn.running_var# bn.num_batches_tracked
  • 作者:程序员_Iverson
  • 原文链接:https://blog.csdn.net/weixin_46197934/article/details/119518497
    更新时间:2022-10-11 13:39:27