nn.model是所有网络(net)层的父类,我们自己如果要实现层的话,需要继承该类。
比如:
我们自己实现一个线性层(MyLinear)
class MyLinear(nn.Model):
def __init__(self, input, output):
super(MyLinear, self).__init__()
self.w = nn.Parameters(torch.randn(output, input))
self.b = nn.Parameters(torch.randn(output))
def forward(self, x):
x = x@self.w.t() + self.b
return x
- 对于上面个的代码,很明显,我们需要优化的参数是w和b,我们初始化的时候,没有指定需要梯度信息,这是为什么?
因为,nn.Parameters会自动加上梯度信息,也即是,我们把这梯度信息交给网络来管理,这样,在给优化器传递参数的时候,可以直接net.parameters(),就直接可以把所有的参数收集到了,如果我们自己管理的话,net.parameters()就无法收集到。特别,我们使用nn.Sequential的时候,把我们自己自定义的网络加到容器的时候,如果收集不到自己定义的网络中的梯度信息的时候,网络就没有办法优化。所以,我们自己定义网络的时候,一定要把网络中需要优化的参数交给网络去管理。
2. def forward(self, x):
x = x@self.w.t() + self.b
return x
这里的x是什么?
我们都知道,网络是要堆叠起来的,这里的x是上一层网络的输出
- nn.Sequential是什么,为什么需要?
当我们自己手动定义一个网络的时候,举例来说,我们要处理图片,我们需要一层卷积,一层池化,再次卷积再次池化的四个操作,我们在init中定义
def __init__(self, input, output):
super(MyLinear, self).__init__()
self.conv1 = ****
self.pool1 = ***
self.conv2 = ****
self.pool2 = ***
我们就需要在
def forward(self, x):
x = x@self.conv1
x = self.pool1(x)
x = x@self.conv2
x = self.pool2(x)
return x
试想一下,如果网络层数很多,我们就需要一一处理,很繁琐
nn.Model提供了很多类,比如激活函数,卷积操作.......比较方便,拿来就可以用
nn.Model还可以嵌套,nn.Model可以打印出每一层的信息,很方便查看各个层的权值,这样我们就可以在训练的时候查看信息,只需要调用net.named_parameters()就可以了。
- nn.Model的模型的保存操作?
net.save(net.state_dict(),"./ckpt.mdl")
保存操作
net.load_state_dict(torch.load("./ckpt.mdl"))
读取保存的结果