优化器方法-LARS(Layer-wise Adaptive Rate Scaling)

最近看到一篇博客,将最新的LookAheadRAdam优化器结合,产生了一个新的算法——Ranger,获得了比单独使用RAdam要好的效果。后来有人将LARS与Ranger结合,效果取得了进一步提升。最近,Ranger的提出者又将GC(Gradient Centralization)方法与Ranger结合,也取得了比Ranger好的效果。这里我会分四篇文章分享在阅读这四个方法的论文时我个人的总结和体会。由于LookAhead优化器与SWA比较相似,所以还会开辟一篇文章介绍SWAFast SWA优化器。本篇文章为该系列文章第一篇。

LARS (Layer-wise Adaptive Rate Scaling)

问题

常用的对网络训练进行加速的方法之一是使用更大的batch size在多个GPU上训练。但是当训练周期数不变时,增大batch size将会导致网络权重更新的迭代次数减少。为了弥补该问题,很多研究者建议当batch size增加k倍时,也相应地将学习率增加k倍。但是当batch size很大的时候,学习率增加太大会导致学习不稳定,尤其是在训练早期阶段,如果学习率太大,则参数可能在错误的方向上更新很多,从而导致模型最终的表现很差。另外,学习率太大的话也可能导致学习发散。

解决方法

之前主流的用来缓解该问题的方法是学习率warm-up,在训练的前几个周期,从一个比较小的学习率开始,线性增加到最终使用的学习率(也就是k倍增加后的学习率)。作者从自己的实验观察出发,提出了可以替代warm-up的方法——分层自适应学习率缩放(Layer-wise Adaptive Rate Scaling),从一个新颖的方向缓解学习率过大的问题。

我们知道,网络参数的更新公式为:w_{t+1} = w_t - \lambda \nabla L(w_t),当学习率太大的话,|| \lambda \nabla L(w_t) || 的值将会大于||w_t||,这时便可能造成发散。作者通过分析训练时网络每层的权重L2范数和对应梯度的L2范数的比值(||w_t||/|| \nabla L(w_t) ||,后面简称为ratio)发现,每层的ratio差异很大(如下图table 2所示),而且ratio在训练早期都比较大,经过几个周期后整体迅速减小。作者指出,如果在学习的早期阶段学习率太大的话,对某些ratio较小的层,|| \lambda \nabla L(w_t) || 的值将会大于||w_t||,也就是说很有可能存在\lambda \nabla L(w_t) 的值大于权重w_t,从而造成训练不稳定。warm-up的目的便是以较小的学习率开始训练来缓解该问题。

作者从以上观察出发得出结论,既然并不是所有层的ratio比较小,那么各个层的更新参数使用的学习率应该根据自己的情况有所调整,而不是所有层使用相同的学习率。由此,作者引入了局部学习率(local LR)的概念,从而在全局学习率的基础上根据每层的情况进行适当地调整。局部学习率的计算方式如下:
\lambda^l = \eta * \frac{||w^l||}{|| \nabla L(w^l) ||}
其中,l表示层数,\eta是超参(<1),表示一次更新时每层会改变参数的置信度(trust),作者的实验中该值为0.001。局部学习率可以很方便的替换每层的全局学习率,从而参数的更新大小为:
\triangle w^l_t = \gamma * \lambda^l * \nabla L(w^l_t)
其中,\gamma为全局学习率。而且,局部学习率也可以轻易扩展到带参数衰减\beta的参数更新中:
\lambda^l = \eta * \frac{||w^l||}{|| \nabla L(w^l) || + \beta * ||w^l||}
由于局部学习率引入了对梯度的l2归一化(\nabla L(w^l_t) / ||\nabla L(w^l_t)||),所以参数更新的幅度不再依赖梯度的大小,梯度只起到了权重更新方向的作用,从而起到了缓解梯度爆炸和消失的作用。

引入局部学习率后,由于\eta < 1且很小(例如,作者实验中使用的0.001),对于ratio比较小的层,\lambda^l也是个很小的值,这样便能将全局学习率减小很多,参数更新时便比较稳定;对于ratio比较大的层,权重本身比梯度大很多,可以使用较大的梯度进行更新也不会造成发散,此时局部学习率\lambda^l会自适应地调整到接近1,从而使用接近全局学习率的学习率进行参数更新。

下图是将LARS与SGD结合的算法流程:

实验效果

作者将warm-up作为新方法的baseline,在使用LARS后将batch size扩展到8k,获得了与baseline(batch size为512)相当的效果:

结合warm-up和LARS后,使用32K batch size训练的ResNet在ImageNet数据集上的测试集表现和不使用warm-up且batch size为256的baseline效果相当,如下图所示:

评价

作者提出的LARS可以有效缓解较大batch size训练前期由于学习率太大导致的不稳定问题。另外,个人认为对于迁移学习来说,网络不同层应该使用不同的学习率,因为较浅层参数通常用来提取细粒度的特征,而这些特征往往比较通用,所以较浅层的学习率应该较小,只对参数做微调,这也相当于在对相似数据集进行微调时固定(freeze)较浅层参数的作用;相反,深层参数表达的是全局特征,需要更好地拟合新任务数据,所以需要进行较大调整。因此,也许LARS最适宜的应用场景是在迁移学习中。当然,这也不排除在finetuen时,较浅层参数的梯度本身就比较小,从而减小对较浅层参数更新的可能。

另外,文中也存在以下缺陷:

  1. 该方法是否对超参数\eta敏感,作者没有给出进一步的实验数据;
  2. 实验对比不全面,LARS的提出是为了替代warm-up策略,但是在ImageNet数据集上,作者只给出了warm-up+LARS的实验效果,不得不让人怀疑该方法的广泛有效性。
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,372评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,368评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,415评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,157评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,171评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,125评论 1 297
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,028评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,887评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,310评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,533评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,690评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,411评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,004评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,659评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,812评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,693评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,577评论 2 353