为什么Recompile之后你的网络不收敛了

最近在做的一个项目需要把训练分为两个阶段,使用一个loss函数训练一段时间之后再换另一个,在初始化模型的时候没有用callback的方式,而是直接进行了两次compile,但由于手贱改了下第一个阶段的学习率,发现本来好好的模型突然不收敛了。也算是keras使用过程中不那么明显的一个坑,在这里记录一下分析的过程和以后避免跳坑的教训。


因为使用的数据比较敏感,所以为便于表达,这里换用MNIST数据集的数据,问题相关的代码:

l1 = Input((in_dims, ))
l2 = Dense(200, activation='relu', kernel_initializer=glorot_uniform(seed=0), bias_initializer='zeros')(l1)
l3 = Dense(50, activation='relu', kernel_initializer=glorot_uniform(seed=0), bias_initializer='zeros')(l2)
l4 = Dense(out_dims, activation='relu', kernel_initializer=glorot_uniform(seed=0), bias_initializer='zeros')(l3)

optimizer_1 = sgd(lr=5e1)
optimizer_2 = sgd(lr=5e-3)

m_model = Model(inputs=l1, outputs=l4)
m_model.compile(optimizer=optimizer_1, loss=categorical_crossentropy, metrics=['acc'])
m_model.fit(x=x_train, y=y_train, batch_size=512, epochs=3, verbose=1, validation_data=(x_val, y_val))

m_model.compile(optimizer=optimizer_2, loss=categorical_crossentropy, metrics=['acc'])
m_model.fit(x=x_train, y=y_train, batch_size=512, epochs=3, verbose=1, validation_data=(x_val, y_val))

模型的收敛情况如下图,lr为5的时候不收敛,这个符合预期,但是在修改了lr之后也没有收敛:

两个阶段模型的收敛情况,左边是lr=5, 右边将lr修改为5e-3重新compile之后训练

而在调换了optimizer_1和optimizer_2的顺序之后,lr为5e-3的阶段还是学习了一点,有一定的精度,到第二个阶段lr改为5才彻底挂掉:
调换optimizer_1和optimizer_2的顺序后,lr为5e-3的部分还是收敛到了一定精度

所以为什么呢?第一反应可能是compile这里出了问题,是不是compile之后原来的学习率还以某种形式在网络中存在?但是在第二张图中我们可以看到compile之后模型的不收敛情况完全符合预期,所以compile不应该引入这样的问题,问题还是和使用这两个学习率的先后顺序有关。compile的作用是配置模型的优化器、损失函数以及metric等,并不会影响模型的内部参数。

我们打开lr=5阶段的TensorBoard再分析一下,这下可以看到是梯度完全消失了,并且权重和偏置基本都是绝对值非常小的负值:

这里是随便拿了一层来看,看右边两个图的grad就会发现梯度基本为0

到了这里结论其实很清楚了,实际上发生的问题是一开始使用了过大的学习率,导致几乎全部节点都发生了dead relu,而在使用更小的学习率进行compile之后,原本的l1, l2, l3, l4中的权重和偏置并没有被重新初始化,这样以后就不会再有梯度了,再怎么改学习率或优化器都无法收敛了。


当然为了方便描述,在这个例子里边用了5这么一个几乎不会用的学习率。推广到更一般的情况,如果使用的学习率过大,导致线性激活函数死掉,或者导致其它激活函数进入了离原点很远的饱和区间,那后边再如何修改参数都于事无补了。

在实际使用中,recompile很可能会在另一个场景给你错觉:ensemble是提升模型性能的一个方法,我们通过多次采样数据,使用不同的超参训练多个模型,最后使用这些模型预测的均值。比如我们用多次采样train+dev集合的方法,训练多次,但中间忘了重新初始化模型参数,而只是用一个compile,你会发现不论怎么采样,模型的在训练集的精度都是稳步上升的,但应用到测试集往往效果不怎么样。原因就是我们在训练过程中,越往后验证集中的数据就越有可能已经在之前的训练集中包含过,这样肯定性能会越来越好,但实际上只是过拟合了。

操作上的建议是:

  • 模型如果很快就不收敛了,需要优先用TensorBoard检查梯度和权重等,看是不是发生了dead relu或其他激活函数进入饱和区间的情况,看着图找原因总是最有效率的。过大的学习率、不合理的loss函数和输出层激活函数搭配、不合理的权重初始化方式都会导致这类问题。
  • 对于调参场景和ensemble模型优化场景,模型的层的定义和模型构建最好放在一个函数中,先调用函数生成模型,再进行compile和fit,这样每次compile之间都会重置参数,不会有历史遗留的参数而导致收敛问题或无用的的性能提升。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,591评论 6 501
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,448评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,823评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,204评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,228评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,190评论 1 299
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,078评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,923评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,334评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,550评论 2 333
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,727评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,428评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,022评论 3 326
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,672评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,826评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,734评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,619评论 2 354

推荐阅读更多精彩内容