DeepLearningAI 学习笔记 1.3 浅层 logistic 神经网络

1.3 浅层 logistic 神经网络

视频:第三周 浅层神经网络

整理:飞龙

普通的 logistic 可看做无隐层的神经网络。下面我们做出一个单隐层的神经网络,它本质上是 logistic 套着 logistic,所以也叫作多层 logistic。

我们的神经网络有三层,输入层,一个隐层,和输出层。输入层的每个节点对应训练集X的每个特征,节点数量就是特征数量。隐层的节点任意,这张图里面是四个。输出层只有一个节点,它就是我们的假设。

image

每个隐层节点,以及输出层节点中,都要执行上一节的 logistic 运算。

上一节中,我们已经推导了向量化的公式。为了简便起见,我们直接用向量化的公式起步。

我们引入一种的表达方式,用 $Z^{[1]}_j$ 表示隐层第j个节点里面的值。用 $Z^{[2]}$ 表示输出层里面的值,因为只有一个节点,就不加下标了。

在每个隐层节点中,我们有:

$$
Z^{[1]}_j = X \theta^{[1]}_j \\
A^{[1]}_j = \sigma(Z^{[1]}_j)
$$

注:

我这里的 $X$ 仍然是行为样本,列为特征。如果你的 $X$ 是我这里的转置,记得把其它的量也加上转置。

然后,我们尝试进一步使其向量化。

$$
\Theta^{[1]} = \begin{bmatrix} & | & \\ \cdots & \theta^{[1]}_j & \cdots \\ & | & \end{bmatrix} \\
$$

我们把 $\theta^{[1]}_j$ 按列堆叠,得到 $\Theta^{[1]}$。由于 $\theta^{[1]}_j$ 是矩阵乘法的右边,它乘以 $X$ 会得到按列堆叠的 $Z^{[1]}_j$。

$$
Z^{[1]} = X\Theta^{[1]} = \begin{bmatrix} & | & \\ \cdots & Z^{[1]}_j & \cdots \\ & | & \end{bmatrix} \\
$$

$A^{[1]}$ 就是对 $Z^{[1]}$ 的每个元素应用 sigmoid 函数,所以是一样的结构。

$$
A^{[1]} = \sigma(Z^{[1]}) = \begin{bmatrix} & | & \\ \cdots & A^{[1]}_j & \cdots \\ & | & \end{bmatrix} \\
$$

在神经网络中,sigmoid 函数叫做激活函数,$A^{[1]}$ 叫做激活值。每个节点的激活值提供给下一层,作为下一层的特征。

也就是说:

$$
Z^{[2]} = A{[1]}\theta{[2]} \\
A^{[2]} = \sigma(Z^{[2]})
$$

$A^{[2]}$ 就是我们的假设,它等于样本属于正向分类的概率。

成本函数 $J$ 的计算也类似。

$$
J = - Sum(Y \ast \log(A^{[2]}) + (1-Y) \ast \log(1-(A^{[2]}))
$$

计算图

由于目前为止的量有点多,我们需要画出它们的关系图。

X-----------Z^[1]----A^[1]-------Z^[2]----A^[2]---J
            |                    |                |
Theta^[1]---+        theta^[2]---+        Y-------+

然后我们统计一下这些量的尺寸信息。

尺寸
$X$ n_data x n_features
$\Theta^{[1]}$ n_features x n_hidden_nodes
$Z^{[1]}$ $A^{[1]}$ n_data x n_hidden_nodes
$\theta^{[2]}$ n_hidden_nodes x 1
$Z^{[2]}$ $A^{[2]}$ n_data x 1

这个很重要,以后有用。

反向传播

神经网络中的求导过程又叫做反向传播,只是一个新名词,没什么特别的。

我们这里待定的量变成了两个:$\Theta^{[1]}$ 和 $\theta^{[2]}$。

首先,$J$ 和 $\theta^{[2]}$ 的关系,类似于 logistic 里面它和 $\theta$ 的关系。我们可以直接得出:

$$
\frac{dJ}{d\theta^{[2]}} = A{[1]T}(A{[2]} - Y)
$$

下面求 $\frac{dJ}{d\Theta^{[1]}}$。从 $J$ 到 $\Theta^{[1]}$ 路径上的所有导数都需要求出来。首先我们得出:

$$
\frac{dJ}{dZ^{[2]}} = A^{[2]} - Y
$$

然后:

$$
\frac{dZ{[2]}}{dA{[1]}} = \theta^{[2]T}
$$

这个导数与 $A^{[1]}$ 同型,只有我们将 $\theta^{[2]}$ 转置过来,再广播成n_data x n_hidden_nodes,它才同型。

$$
\frac{dJ}{dA^{[1]}} = \frac{dJ}{dZ{[2]}}\theta{[2]T}
$$

我们发现,左边的导数是n_data x n_hidden_nodes的,右边的两个导数分别是n_data x 11 x n_hidden_nodes的,所以用矩阵乘法。

$$
\frac{dA{[1]}}{dZ{[1]}} = A^{[1]} \ast (1-A^{[1]}) \\
\frac{dJ}{dZ^{[1]}} = \frac{dJ}{dA^{[1]}} \ast A^{[1]} \ast (1-A^{[1]})
$$

我们发现,左边的导数是n_data x n_hidden_nodes的,右边的两个导数也是,所以用逐元素乘法。这个规律在反向传播中十分重要。

最后一步和 logistic 中的情况相似,所以照搬。

$$
\frac{dJ}{d\Theta^{[1]}} = X^T \frac{dJ}{dZ^{[1]}}
$$

最后别忘了对两个导数除以 $n_data$。

代码

Theta_sup1 = np.random.rand(n_features, n_hidden_nodes) / 100
theta_sup2 = np.random.rand(n_hidden_nodes, 1) / 100

for _ in range(max_iter):
    # 正向传播过程
    Z_sup1 = np.dot(X, Theta_sup1)
    A_sup1 = sigmoid(Z_sup1)
    Z_sup2 = np.dot(A_sup1, theta_sup2)
    A_sup2 = sigmoid(Z_sup2)

    # 反向传播过程
    dJ_dZ_sup2 = (A_sup2 - Y) / n_data
    dJ_dtheta_sup2 = np.dot(A_sup1.T, dJ_dZ_sup2)
    dZ_sup2_dA_sup1 = theta_sup2.T
    dA_sup1_dZ_sup1 = A_sup1 * (1 - A_sup1)
    dJ_dZ_sup1 = np.dot(dJ_dZ_sup2, dZ_sup2_dA_sup1) * dA_sup1_dZ_sup1
    dJ_dTheta_sup1 = np.dot(X.T, dJ_dZ_sup1)
    
    Theta_sup1 -= alpha * dJ_dTheta_sup1
    theta_sup2 -= alpha * dJ_dtheta_sup2
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,588评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,456评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,146评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,387评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,481评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,510评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,522评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,296评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,745评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,039评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,202评论 1 343
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,901评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,538评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,165评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,415评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,081评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,085评论 2 352

推荐阅读更多精彩内容