Pytorch的nn.model

nn.model是所有网络(net)层的父类,我们自己如果要实现层的话,需要继承该类。

比如:
我们自己实现一个线性层(MyLinear)

        class MyLinear(nn.Model):
                  def __init__(self, input, output):
                        super(MyLinear, self).__init__()
                        self.w = nn.Parameters(torch.randn(output, input))
                         self.b = nn.Parameters(torch.randn(output))
                  def forward(self, x):
                         x = x@self.w.t() + self.b
                          return x
  1. 对于上面个的代码,很明显,我们需要优化的参数是w和b,我们初始化的时候,没有指定需要梯度信息,这是为什么?
    因为,nn.Parameters会自动加上梯度信息,也即是,我们把这梯度信息交给网络来管理,这样,在给优化器传递参数的时候,可以直接net.parameters(),就直接可以把所有的参数收集到了,如果我们自己管理的话,net.parameters()就无法收集到。特别,我们使用nn.Sequential的时候,把我们自己自定义的网络加到容器的时候,如果收集不到自己定义的网络中的梯度信息的时候,网络就没有办法优化。所以,我们自己定义网络的时候,一定要把网络中需要优化的参数交给网络去管理。
2. def forward(self, x):
           x = x@self.w.t() + self.b
           return x

这里的x是什么?
我们都知道,网络是要堆叠起来的,这里的x是上一层网络的输出

  1. nn.Sequential是什么,为什么需要?
    当我们自己手动定义一个网络的时候,举例来说,我们要处理图片,我们需要一层卷积,一层池化,再次卷积再次池化的四个操作,我们在init中定义
def __init__(self, input, output):
                  super(MyLinear, self).__init__()
                  self.conv1 = ****
                  self.pool1 = ***
                  self.conv2 = ****
                  self.pool2 = ***

我们就需要在

            def forward(self, x):
                   x = x@self.conv1
                   x = self.pool1(x)
                   x = x@self.conv2
                   x = self.pool2(x)
                   return x

试想一下,如果网络层数很多,我们就需要一一处理,很繁琐

nn.Model提供了很多类,比如激活函数,卷积操作.......比较方便,拿来就可以用

nn.Model还可以嵌套,nn.Model可以打印出每一层的信息,很方便查看各个层的权值,这样我们就可以在训练的时候查看信息,只需要调用net.named_parameters()就可以了。

  1. nn.Model的模型的保存操作?
      net.save(net.state_dict(),"./ckpt.mdl")

保存操作

      net.load_state_dict(torch.load("./ckpt.mdl"))

读取保存的结果

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,376评论 6 491
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,126评论 2 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 156,966评论 0 347
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,432评论 1 283
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,519评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,792评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,933评论 3 406
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,701评论 0 266
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,143评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,488评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,626评论 1 340
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,292评论 4 329
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,896评论 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,742评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,977评论 1 265
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,324评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,494评论 2 348