2019-04-02 Pytorch:加载预训练模型并保存

 参考链接:

1.用pytorch搭建AlexNet(微调预训练模型及手动搭建) - sjtuxx_lee的博客 - CSDN博客

2.pytorch学习笔记之加载预训练模型 - spectre - CSDN博客


第一篇文章实现了直接加载Alexnet预训练模型,并根据自己的需要微调(将最后一层全连接层输出由1000改为10)。运行没有问题,下面是我自己的理解和备注。原代码可以在参考链接2中直接copy。

import torch.nn as nn                                                 #nn设置网络结构详细参数

from torchvision import models                                  #torchvision包,它包括3个子包,分别是: torchvison.datasets ,torchvision.models ,torchvision.transforms ,分别是预定义好的数据集(比如MNIST、CIFAR10等)、预定义好的经典网络结构(比如AlexNet、VGG、ResNet等)和预定义好的数据增强方法(比如Resize、ToTensor等)。

class BuildAlexNet(nn.Module):

    def __init__(self, model_type, n_output):

        super(BuildAlexNet, self).__init__()

        self.model_type = model_type

        if model_type == 'pre':                                         #定义两种model类型,一个直接从alexnet中继承这个参数和结构,定义名称为‘pre’。 另一个是自己设定的网络结构,定义为'new'

            model = models.alexnet(pretrained=True)       #加载alexnet模型,pretrained为真,则加载网络结构和预训练参数。否则,只加载网络结构[2]

            self.features = model.features                          #因为只要求更改最后的分类数,所以feature类直接从预训练网络中继承classifier   类除了要更改的分类层,其他的也从原网络中定义好

            fc1 = nn.Linear(9216, 4096)                                #fc1和fc2继承原网络的classifier参数

            fc1.bias = model.classifier[1].bias

            fc1.weight = model.classifier[1].weight

            fc2 = nn.Linear(4096, 4096)

            fc2.bias = model.classifier[4].bias

            fc2.weight = model.classifier[4].weight

            self.classifier = nn.Sequential(                          #定义新的classifier层,前两层保持不变,底端分类层分类数用n_output代替

                    nn.Dropout(),

                    fc1,

                    nn.ReLU(inplace=True),

                    nn.Dropout(),

                    fc2,

                    nn.ReLU(inplace=True),

                    nn.Linear(4096, n_output)) 

            #或者直接修改为

#            model.classifier[6]==nn.Linear(4096,n_output)

#            self.classifier = model.classifier

        if model_type == 'new':                                         #这是自己定义的网络模型(feature,classifier)

            self.features = nn.Sequential(

                    nn.Conv2d(3, 64, 11, 4, 2),

                    nn.ReLU(inplace = True),

                    nn.MaxPool2d(3, 2, 0),

                    nn.Conv2d(64, 192, 5, 1, 2),

                    nn.ReLU(inplace=True),

                    nn.MaxPool2d(3, 2, 0),

                    nn.Conv2d(192, 384, 3, 1, 1),

                    nn.ReLU(inplace = True),

                    nn.Conv2d(384, 256, 3, 1, 1),

                    nn.ReLU(inplace=True),

                    nn.MaxPool2d(3, 2, 0))

            self.classifier = nn.Sequential(

                    nn.Dropout(),

                    nn.Linear(9216, 4096),

                    nn.ReLU(inplace=True),

                    nn.Dropout(),

                    nn.Linear(4096, 4096),

                    nn.ReLU(inplace=True),

                    nn.Linear(4096, n_output))

    def forward(self, x):

        x = self.features(x)

        x = x.view(x.size(0), -1)

        out  = self.classifier(x)

        return out


import numpy as np                                                       #从这里开始就是验证函数

from torch.autograd import Variable

import torch

if __name__ == '__main__':

    model_type = 'pre'

    n_output = 10

    alexnet = BuildAlexNet(model_type, n_output)     #调用函数buildAlexnet,网络选项是预训练模型,输出是10,也就是分十类

    print(alexnet)

    x = np.random.rand(1,3,224,224)              #随机创建一个224*224,通道为3的数组,模拟三通道的图片

    x = x.astype(np.float32)

    x_ts = torch.from_numpy(x)                     #转换成torch能用的张量形式

    x_in = Variable(x_ts)                                  #『PyTorch』第五弹_深入理解autograd_上:Variable属性方法 - 叠加态的猫 - 博客园

    y = alexnet(x_in)                                         #输出结果


打印出来的网络结构如下:


输出分类结果y如下:

最后的分类结果是10类,check~

待解决:1.代码倒数第二行的torch.autograd.variable没有理解清楚,链接已贴.上. ,等您脑袋清楚了一定要看哈。

               2.继承,super(),代码第五行

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,393评论 5 467
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,790评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,391评论 0 330
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,703评论 1 270
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,613评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,003评论 1 275
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,507评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,158评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,300评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,256评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,274评论 1 328
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,984评论 3 316
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,569评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,662评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,899评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,268评论 2 345
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,840评论 2 339

推荐阅读更多精彩内容