详解GAN网络(从零入门)

姓名:刘治国        学号:21011210153        学院:信息与通信工程

从一个小白的方式理解GAN网络(生成对抗网络),可以认为是一个造假机器,造出来的东西跟真的一样,下面开始讲如何造假:(主要讲解GAN代码,代码很简单)

我们首先以造小狗的假图片为例。

首先需要一个生成小狗图片的模型,我们称之为generator,还有一个判断小狗图片是否是真假的判别模型discrimator,

首先输入一个1000维的噪声,然后送入生成器,生成器的具体结构如下所示(不看也可以,看完全篇回来再看也一样):

其实比较简单,代码如下所示:

def generator_model():

    model = Sequential()

    model.add(Dense(input_dim=1000, output_dim=1024))

    model.add(Activation('tanh'))

    model.add(Dense(128 * 8 * 8))

    model.add(BatchNormalization())

    model.add(Activation('tanh'))

    model.add(Reshape((8, 8, 128), input_shape=(8 * 8 * 128,)))

    model.add(UpSampling2D(size=(4, 4)))

    model.add(Conv2D(64, (5, 5), padding='same'))

    model.add(Activation('tanh'))

    model.add(UpSampling2D(size=(2, 2)))

    model.add(Conv2D(3, (5, 5), padding='same'))

    model.add(Activation('tanh'))

    return model

生成器接受一个1000维的随机生成的数组,然后输出一个64×64×3通道的图片数据。输出就是一个图片。不必太过深究,输入是1000个随机数字,输出是一张图片。

下面再看判别器代码与结构:

代码如下所示:

def discriminator_model():

    model = Sequential()

    model.add(Conv2D(64, (5, 5), padding='same', input_shape=(64, 64, 3)))

    model.add(Activation('tanh'))

    model.add(MaxPooling2D(pool_size=(2, 2)))

    model.add(Conv2D(128, (5, 5)))

    model.add(Activation('tanh'))

    model.add(MaxPooling2D(pool_size=(2, 2)))

    model.add(Flatten())

    model.add(Dense(1024))

    model.add(Activation('tanh'))

    model.add(Dense(1))

    model.add(Activation('sigmoid'))

    return model

输入是64,64,3的图片,输出是一个数1或者0,代表图片是否是狗。

下面根据代码讲具体操作:

把真图与假图。进行拼接,然后打上标签,真图标签是1,假图标签是0,送入训练的网络。

# 随机生成的1000维的噪声

noise = np.random.uniform(-1, 1, size=(BATCH_SIZE, 1000))

# X_train是训练的图片数据,这里取出一个batchsize的图片用于训练,这个是真图(64张)

image_batch = X_train[index * BATCH_SIZE:(index + 1) * BATCH_SIZE]

# 这里是经过生成器生成的假图

generated_images = generator_model.predict(noise, verbose=0)

# 将真图与假图进行拼接

X = np.concatenate((image_batch, generated_images))

# 与X对应的标签,前64张图为真,标签是1,后64张图是假图,标签为0

y = [1] * BATCH_SIZE + [0] * BATCH_SIZE

# 把真图与假图的拼接训练数据1送入判别器进行训练判别器的准确度

d_loss = discriminator_model.train_on_batch(X, y)

这里要是看不明白的话可以结合别人的讲解结合来看。

在这里训练好之后,判别器的精度会不断提高。

下面是重头戏了,也是GAN网络的核心:

def generator_containing_discriminator(g, d):

    model = Sequential()

    model.add(g)

    # 判别器参数不进行修改

    d.trainable = False

    model.add(d)

    return model

他的网络结构如下所示:

这个模型有生成器与判别器组成:看代码,这个模型上半部分是生成网络,下半部分是判别网络,生成网络首先生成假图,然后送入判别网络中进行判断,这里有一个d.trainable=False,意思是,只调整生成器,判别的的参数不做更改。简直巧妙。

然后我们来看如何训练生成网络,这一块也是核心区域:

        # 训练一个batchsize里面的数据

        for index in range(int(X_train.shape[0]/BATCH_SIZE)):

            # 产生随机噪声

            noise = np.random.uniform(-1, 1, size=(BATCH_SIZE, 1000))

            # 这里面都是真图片

            image_batch = X_train[index*BATCH_SIZE:(index+1)*BATCH_SIZE]

            # 这里产生假图片

            generated_images = g.predict(noise, verbose=0)

            # 将真图片与假图片拼接在一起

            X = np.concatenate((image_batch, generated_images))

            # 前64张图片标签为1,即真图,后64张照片为假图

            y = [1] * BATCH_SIZE + [0] * BATCH_SIZE

            # 对于判别器进行训练,不断提高判别器的识别精度

            d_loss = d.train_on_batch(X, y)

            # 再次产生随机噪声

            noise = np.random.uniform(-1, 1, (BATCH_SIZE, 1000))


            # 设置判别器的参数不可调整

            d.trainable = False


            # ××××××××××××××××××××××××××××××××××××××××××××××××××××××××××

            # 在此我们送入噪声,并认为这些噪声是真实的标签

            g_loss = generator_containing_discriminator.train_on_batch(noise, [1] * BATCH_SIZE)

            # ××××××××××××××××××××××××××××××××××××××××××××××××××××××××××


            # 此时设置判别器可以被训练,参数可以被修改

            d.trainable = True


            # 打印损失值

            print("batch %d d_loss : %s, g_loss : %f" % (index, d_loss, g_loss))

重点在于这句代码

g_loss = generator_containing_discriminator.train_on_batch(noise, [1] * BATCH_SIZE)

首先这个网络模型(定义在上面),先传入生成器中,然后生成器生成图片之后,把图片传入判别器中,标签此刻传入的是1,真实的图片,但实际上是假图,此刻判别器就会判断为假图,然后模型就会不断调整生成器参数,此刻的判别器的参数被设置为为不可调整,d.trainable=False,所以为了不断降低loss值,模型就会一直调整生成器的参数,直到判别器认为这是真图。此刻判别器与生成器达到了一个平衡。也就是说生成器产生的假图,判别器已经分辨不出来了。所以继续迭代,提高判别器精度,如此往复循环,直到生成连人都辨别不了的图片。

最后我训练了大概65轮,实际上生成比较真实的狗的图片我估计可能上千轮了,当然不同的网络结构,所需要的迭代次数也不一样。我这个因为太费时间,就跑了大概,可以看出大概有个狗模样。这个是训练了65轮之后的效果:

以上就是全部的内容了。

https://github.com/jensleeGit/Kaggle_self_use/tree/master/Generative%20Dog%20Images

————————————————

版权声明:本文为CSDN博主「JensLee」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://blog.csdn.net/LEE18254290736/article/details/97371930

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,376评论 6 491
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,126评论 2 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 156,966评论 0 347
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,432评论 1 283
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,519评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,792评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,933评论 3 406
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,701评论 0 266
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,143评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,488评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,626评论 1 340
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,292评论 4 329
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,896评论 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,742评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,977评论 1 265
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,324评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,494评论 2 348

推荐阅读更多精彩内容