神经网络和深度学习

深度学习概论

神经网络属于监督学习,并彻底改变了监督学习。神经网络这个概念不是近几年才有,但是却是近几年兴起的。那么是什么原因促成了神经网络和深度学习的兴起呢?规模。这里的规模不仅指神经网络架构的规模,也指数据的规模。规模的增长使得神经网络和深度学习在机器学习各个算法中拔得头筹。正是由于规模的驱动,深度学习将在未来几年持续不断地发展。

随着互联网的发展,海量的数据成为一种资源。总的来讲,这些数据可以被分为结构化数据(Structured Data)和非架构化数据(Unstructured Data)。其中,结构化数据典型的代表即数据库数据,非结构化的数据包括音频、图像和文本等,结构化的数据更容易被计算机理解。毋庸置疑,深度学习在处理非结构化数据方面有着明显的优势。总的来说,神经网络架构有以下几种:

  1. 通用的标准的神经网络(Universally Standard Neural Network)
  2. 卷积神经网络CNN(Convolutional Neural Network)
  3. 循环神经网络RNN(Recurrent Neural Network)

其中,CNN多用于处理图像,RNN多用于处理序列数据(音频,单词语言,含有时间成分的一维时间序列等)。

神经网络基础

梯度下降法(Gradient Descent)

下图所示为logistic回归算法,其中,J为成本函数。我们的目标是找到使得成本函数最小的w和b。梯度下降法的思路为:用某初始值初始化w和b,从初始点开始,试图沿着最快下降方向往下走,这样就很有希望达到全局最优解或者接近全局最优解。


logistic回归算法

核心算法为如下所示的两个公式:


梯度下降算法
向量化(vectorization)

向量化的作用即是消除代码中显式的for循环语句。在编写新的网络或者在进行回归时,尽量避免for循环。

import numpy as np
import time
//向量化版本
a = np.random.rand(1000000)
b = np.random.rand(1000000)
tic = time.time()
c = np.dot(a,b)
toc = time.time()
print("Vectorized version:" + str(1000*(toc-tic)) + "ms")
//for循环版本
c = 0
tic = time.time()
for i in range(1000000):
    c += a[i]*b[i]
toc = time.time()
print("for loop" + str(1000*(toc-tic)) + "ms")

输出结果:

250224.435665
Vectorized version:1.0025501251220703ms
250224.435665
for loop717.5307273864746ms

其他可以向量化的例子:

np.exp(v)
np.log(v)
np.abs(v)
np.maximum(v)
向量化logistic回归
向量化的logistic回归
Python中的广播

Python中的广播为在进行科学计算的时候经常用到的一种技术。总的来说,就是将一个(m,n)维的矩阵和一个向量相加时,向量会自动扩展为和矩阵相同的维数,而后与矩阵进行计算。


Python中的广播
编程技巧

在进行神经网络编程时,要注意不要使用秩为1的数组。

a = np.random.randn(5)

应该使用如下所示的数组:

a = np.random.randn(5,1)

浅层次神经网络

神经网络的表示
二层神经网络示意图

如上图所示的网络通常被认为是三层神经网络,因为它一共有三层:输入层、隐含层和输出层,而在学术论文里大多被称为二层神经网络:第一层(隐含层)和第二层(输出层)。

根据示意图,可以列出如下四个向量化的方程,每个向量的维度都在下面标出。


二层神经网络正向传播的方程
激活函数

激活函数有多种:
1.Sigmoid函数
该函数的值域为[0,1]。

Sigmoid函数

2.tanh函数
该函数的值域为[-1,1],并通过原点。

tanh函数

3.修正线性单元(Rectified Linear Unit)
该函数在z<0时,斜率为0;在z>0时,斜率为1;在z=0时,导数没有定义。


ReLU函数

4.带泄露的修正线性单元(Leaky ReLU)
可能的公式为:


Leaky ReLU

不同激活函数的对比:
1.对于Sigmoid函数,除非用在二元分类的输出层,不然绝对不要用。
2.大多数场合下,tanh函数比Sigmoid函数更加优越。
3.最常用的默认激活函数是ReLU函数,如果不确定用哪个就用这个,或者也可以试试带泄漏的ReLU函数。
4.最有效的还是自己尝试跑一下程序,选择一个最适合自己应用的。

使用非线性激活函数的原因
因为线性函数的组合还是线性函数,这样就无法引入更多更复杂的函数。一般除了在做回归的时候在输出层可以用到线性激活函数,其他情况很少用线性激活函数。

反向传播

如前所述,二层神经网络的正向传播需要四个方程,而反向传播则需要6个方程。

反向传播方程

向量化的版本如下:


向量化的反向传播方程
随机初始化参数
  1. W不能初始化为0矩阵,b可以初始化为元素均为0的矩阵。


    初始化示例
  1. 要乘以0.01,是因为一般参数会初始化为比较小的数,否则在使用激活函数时z的值容易落到函数饱和的区段,使得学习速度减慢。

深层神经网络(Deep Neural Network)

为什么使用深层表示
  1. 关于深层表示的直觉
    当进行人脸识别时,可以把神经网络中的当做是边缘探测器,来探测输入图片的边缘,比如有的神经元探测到鼻子的部分而有的探测到眼睛的部分,然后就可以开始检测人脸的不同部分,最后再把这些部分放在一起,就可以识别不同的人脸了。
神经网络的识别过程
  1. 电路理论和深度学习
    深度神经网络有效的另外一个支持理论来源于电路理论。使用一些基本的逻辑门来表示一些函数直观上就像使用一些基本的神经元来表示一些函数一样。非正式地讲,有些函数如果使用深层网络表示的话,每层的神经元的数量可以比较少;如果使用浅层的神经网络的话,则每一层的神经元的数量呈指数增长。
深层网络的前向传播

L层的正向传播方程如下:

正向传播方程

这里需要用到for循环。以层数为循环次数,对每一层进行传播方程的求解。

核对矩阵的维数

在进行编程时,有效的排除一些bug的方法是把参与计算的矩阵维数从头到尾核对一遍。经过推导,我们可以得到矩阵的维数的一些规律。

矩阵维数规律

其中,m为训练样本集的数目,n^[l]为第l层的神经元的个数。

搭建深层神经网络块

深层神经网络块主要包括正向传播和反向传播两个流程,大致计算流程如下图:


正向传播和反向传播流程
参数和超参数

神经网络的性能的高低很大程度上取决于我们设置的参数和超参数。其中,W和b为我们经常提到的参数;而学习率(learning rate)、迭代次数、隐含层层数、隐层单元个数、激活函数的选择等这些参数则控制着最后的W和b这两个参数,因此被称为超参数(hyper parameters)。

除了上面提到的超参数,深度学习中还有很多不同的超参数,比如:动量项(momentum term)、最小批次大小(mini batch size)、正则化参数(regularization parameters)

深度学习的应用是一个经验过程,我们需要不断地尝试、编码、实验,不断地积累和总结经验。直到我们有了设置参数的灵感和直觉。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,539评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,911评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,337评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,723评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,795评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,762评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,742评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,508评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,954评论 1 308
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,247评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,404评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,104评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,736评论 3 324
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,352评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,557评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,371评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,292评论 2 352

推荐阅读更多精彩内容