【神经网络原理】如何利用梯度下降法更新权重与偏置

梯度下降(Gradient Descent)可以认为是一种更新网络参数,从而寻找损失函数最小值的优化算法。我们常常利用梯度下降法来使损失函数Loss function的值尽可能小,即让神经网络的预测值(实际输出)和标签值(预期的输出)尽可能接近,在这个过程中,网络参数——各层的权值与偏重将得到调整。
本文将从损失函数概念、梯度下降原理 & 为什么沿梯度负方向函数值下降最快、梯度更新公式三个方面展开。

一、什么是损失函数(Loss function)?

损失函数的值减小,意味着神经网络的预测值(实际输出)和标签值(预期的输出)越接近。
损失函数通常为多元函数,其自变量包括网络中包含的所有的权重w、以及所有的偏置b,有的地方也将其称作代价函数(Cost function)或价值函数(Value function),这里只介绍均方误差损失函数(MSE):
LossFunction = \sum_{j=1}^{n} \frac{\Vert \vec y_{j_{predict}}- \vec y_{j_{label}} \Vert ^2}{2n}

  1. 分子是预测向量(实际输出)与标签向量(期望输出)之差的二范数的平方,即两个向量中对应元素之差的平方和,是一个标量;
  2. j 次求和再除以n,代表对 j 个输入向量得到的 j 个二范数平方项求均值;
  3. 分母上的2主要是为了在对二范数的平方项求导时,消去系数,简化形式。

二、梯度下降求解损失函数最小值

2.1 什么是梯度?

多元函数的梯度类似于一元函数导数:对多元函数各变量依次求一阶偏导,然后将各偏导值组合成一个一维列向量,就得到了该多元函数梯度。损失函数通常为多元函数,其梯度如下:
\nabla L(w^2_ {11},w^2_ {12},\cdots,w^l_ {kj},b^2_ {1},b^2_ {2},\cdots,b^l_ {k})

= (\frac{\partial L}{\partial w^2_ {11}},\frac{\partial L}{\partial w^2_ {12}},\cdots,\frac{\partial L}{\partial w^l_ {kj}},\frac{\partial L}{\partial b^2_ {1}},\frac{\partial L}{\partial b^2_ {2}},\cdots,\frac{\partial L}{\partial b^l_ {k}})^T

对于神经网络结构 & 符号约定有疑惑的可以参考我的这篇文章——【神经网络原理】神经网络结构 & 符号约定

2.2 为什么损失函数的函数值,沿梯度的负方向下降最快?

梯度的负方向:因为梯度是一个向量,具有方向性。这里的下降是指损失函数值的减小。
那么为什么沿梯度的负方向损失函数值减小最快呢?这里主要利用多元函数的一阶泰勒展开(一阶形式还是比较简单的)和向量点积公式来证明:

三、权重 & 偏置的更新公式

这里只给出了第 l 层的网络参数——权重(矩阵)与偏置(向量)的梯度下降更新公式,其他层网络参数的更新公式同理可得,对符号有疑惑的请参考:【神经网络原理】神经网络结构 & 符号约定

后记、如何求解更新公式中的梯度?

有了各层网络参数(向量/矩阵)的更新公式,其中损失函数对各参数的梯度又该如何求解呢?事实上由于神经网络中参数(权重W和偏置b)通常较多,要想直接求解损失函数对这些参数的梯度,难度极大,所以在实际训练网络时,我们通常采用反向误差传播,即BP算法,巧妙地利用预测值与标签值的残差,从输出层到输入层反向地求解出损失函数对各层网络参数的梯度。

为避免文章过于冗长,本文跳过了神经网络基本结构,损失函数、激活函数的具体形式及其优劣,梯度下降的变种算法,以及优化梯度求解的BP反向误差传播算法等问题,相关内容我会在后续的学习中逐步更新,欢迎关注~

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,941评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,397评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,345评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,851评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,868评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,688评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,414评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,319评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,775评论 1 315
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,945评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,096评论 1 350
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,789评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,437评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,993评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,107评论 1 271
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,308评论 3 372
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,037评论 2 355

推荐阅读更多精彩内容