反向传播:back propogation

自己的视频笔记,不构成任何学习建议。谨慎观看,默默从宽

ref1 backpropagation explain part1: 直观感受

https://www.youtube.com/watch?v=XE3krf3CQls&list=PLZbbT5o_s2xq7LwI2y8_QtvuXZedL6tQU&index=26

notes

Xnip2021-08-29_14-25-23.jpg
完整的 反向传播.png
总结

math

  • chain rule

ref part 2 下层的 数学标记

在继续 深入 back propagation 之前,我们应该理解 一些数学 的符号

https://www.youtube.com/watch?v=2mSysRx-1c0&list=PLZbbT5o_s2xq7LwI2y8_QtvuXZedL6tQU&index=26

notes

视频内容:

框架

开始部分

sgd

gradient

update weights

数学部分

标记
k用来标记上一层的nodes
W_jk_superScript_L的意思
W_j_superScript_L的意思
Z_j_superScript_L的意思

back propogation 是 一个 iteration 的过程


ref 3 back propogation part 3 Mathmetical observation

https://www.youtube.com/watch?v=G5b4jRBKNxw&list=PLZbbT5o_s2xq7LwI2y8_QtvuXZedL6tQU&index=27

这里是数学观察

三个目标
  • 如何 表达 loss function
  • 如何表达 一个 节点 的 输入 输出
  • 如何 区分 loss function

给你 图片 的 解释 overview

整体流程.png

notes

lossC0的定义
zj作为 input
L层的激励输出表达式
c_0作为函数了.png
g也是函数?.png
好的,现在 z 也是 函数了

把上面 的玩意 都变成 函数 之后:

image.png
checkpoint

备注: 实际上 ,你看到了 c0 aka loss ,就是 一个 依赖 了 很多 其他 东西 的东西

  • 它 依赖了 activatin 函数,
  • 依赖了输入
  • 依赖 的权重

loss 的 计算 就可以 subject to weights 进行 导数 的计算


ref part 4 计算 渐变 / 梯度

https://www.youtube.com/watch?v=Zr5viAZGndE&list=PLZbbT5o_s2xq7LwI2y8_QtvuXZedL6tQU&index=28

notes

你已经知道 ,上一届 的 主题,就是 用 数学 的方式 ,让你 理解 了 神经网路 的数学 表达

比如 激励函数, input ,权重,loss 函数的 表达

这里 这一届 我们 就 计算 gradient

大纲:

大纲

differentiate the loss

咱们 先从 一个 node 开始 举例

看看这两个 nodes 吧

那咱们 关注 的 W_12 这个 权重 的 loss C_0 就是:

C_0 的 loss 表达式

于是,我们得出 一个 终极 的 等式:

终极等式,loss关于weight12 的导数计算 公式

解释一下 来由:

来由

然后我们 详细 看看:这个复杂的等式

从第一个 部分开始:

第一个部分即将被计算出来了

如下计算即可:

关于 a1 的导数

备注: ( X - c) ^ 2 的导数 就是

2(X-c)

你把 上面 的 a1 换成 X ,就能理解 最后 那个


这你能理解吧?

了吧


接着 看 第二个 term

第二个 term;激励a对输入z的导数.png
就这样算.png

上面 吧 j 换成 1 了

还有就是 F(x) 对 x 求道 ,就是 F'(x) ,

所以 你看到 g^{ (L)} (z_1^{(L)} )z_1^{(L)} 求道 ,就是 g' ^ {(L)} (z_1^{(L)})

注意 这里 的 g 就是 activation function 的数学表示而已,是一个函数

流程里面的g函数是激励函数

好,现在搞 第三个 term:输入 对 目标权重

第三个 term.png

输入 是 多个 前一层网络 的 许多 权重 连线 ,连过来的,但是我 就关心:W_{12} 这一个 权重,这也就导致 其他 权重连线过来的 值,并不会 对 W_{12} 求导得到什么东西,只会得到 0; 所以下图 ,说: 就他有用,其他的都没用

搞 出来了.png

三个 都成了

现在 回头看看 overall result

overall object

一个 sample ,say 0 吧, 对 weight 12 的 更新 效果。

然后 是 n 个sample , 批发给 wieght 12 进行 loss 计算,是如下的:

n个 sample都上来之后,对于 weight 12 计算 loss

好,上面 就是 n 个 sample 计算 某个 weight ,这里 是 weight 12 ,

但是 同样的操作 , 会 对 所有的 weight 进行 重复,不只是 weight 12 这样被搞,整个 weights 都会被搞 。

于是 ,整个网络 就被 你 的 back propogation 给搞更新了哈。


好的,到这里 ref 4 结束

你知道 如何 计算 loss 的细节了。

ref 5 final

https://www.youtube.com/watch?v=xClK__CqZnQ&list=PLZbbT5o_s2xq7LwI2y8_QtvuXZedL6tQU&index=29

notes

image.png

现在我们的重心,在于计算 中间层 的 loss, 或者说,中间层 的 那些 weights 如何影响 最后 的 output 我们很关心。

计算方式 和 之前 很像 ,但是 有所不同:

image.png

在等式 的 右边 ,第 2,3 项 都和以前一样地计算;

但是 第一项 ,计算方式 就是 不同的了

我们很关心 第一项 的计算:

image.png

因为:

image.png

开始 搞把

不是输出层的那些 点,其 权重更新,会比 output layer 的权重更新更加复杂

我们关注 的点:倒数第二层,2 号点,其激励函数, 这样表示:

关注他.png

然后 他的 损失 的 导数 ,就是 这样表示

他对应的导数表达式子.png

把它 展开,我们就得到:

展开后

还记得上一届 的 loss 求道 的 狮子 吗?

上一届 的 loss 求道 的 狮子.png

上面 两者 很像吧

但是我指出 两个 不同:(还有个不同,天天认为是 求的 对象不同, 一个 是a 一个是w)

第一个就是 我们这一届 的有 sum 部分

为什么 有 sum 部分,就是因为 之前层 的 一个 激励函数 将会 影响 所有的输出nodes

之前层 的 一个 激励函数 将会 影响 所有的输出nodes

所以,咱们现在 就必须 有 sum 的操作了。


上一届 我们已经 计算了 这两个:

他们已经在上一个 视频 计算过了

所以就不说他们呢了

第二个 不同,就是 第三个
第三个项目

继续看看我们要求的东西,在网络中的位置

红色,2号点,是关注的中心.png

最后一层,第 j 个node 的输入:

最后一层,第 j 个node 的输入.png

让这个 输入 对 前一层 的激励函数 求道 :

输入 对 前一层 的激励函数 求道.png

记住,本层 的 输入,总是 由 前一层 所有 的nodes 经过 weights 打入的,前一层 有 k 个 nodes ,那么 weights 就会 有 k 个。 这个 公式 里面 的 k ,也就是 这个意思:前一层 有 k 个 nodes

算一下吧:

展开之

展开,使用power rule!!!!.png

好的,回到 我们 最初的梦想,这里就是 输出 c0 loss 对于 L - 1 层 的 a2 激励函数 的导数:

对于激励函数的导数,出来了

然后 是 权重,举个例子,L - 1 层 的 W_{22}:

对于 权重的导数,也就出来了.png

end

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,406评论 6 503
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,732评论 3 393
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,711评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,380评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,432评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,301评论 1 301
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,145评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,008评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,443评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,649评论 3 334
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,795评论 1 347
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,501评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,119评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,731评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,865评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,899评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,724评论 2 354

推荐阅读更多精彩内容