[AI] 4 卷积神经网络CNN (下)

一、过拟合overfitting

一般来说,模型的参数越多,模型就可以拟合更多的函数类型。但是,如果数据量太少不足以限制模型,那么模型的拟合结果就会过于精确,以至于丢失了真实的数据特性,造成过拟合

overfitting, from C.Bishop, Pattern Recognition and Machine Learning
以曲线拟合为例,,随着模型参数数量的增加,过拟合的风险也在增加

二、深度卷积网络Deep Convolutional Neural Network(CNNs)

常用数据集

MNIST:60,000 images of hand written digits; deep convolutional neural networks can learn to recognise them with as low as 0.23% error rate (Ciresan et al. 2012)

sample of MNIST dataset

ImageNet:1M+ images; 1000 classes; exemplar deep convolutional neural networks recognise them with an error of 2.25%
sample of ImageNet, from cs.stanford.edu

应用

图片分类(Classification)
[Krizhevsky et al. 2012]

语音分割(Semantic segmentation)
[Badrinarayanan et al. 2017]

基于图片内容的问答(Image-based question answering)
from http://conviqa.noahlab.com.hk/project.html

添加说明字幕(Image captioning)
Karpathy&Fei-Fei 15

运动检测(Action Recognition)
Hou et al. 17

三、经典CNN网络结构

  1. AlexNet (Winner of ILSVRC 2012, 1000 classes)
    AlexNet, Krizhevsky et al. 2012
  2. VGG16 (Stack of small conv layers with 3*3 filter, the number of conv filters: 64 -> 128 -> 256 -> 512 -> 512)
    VGG16, Simonyan and Zisserman, 2014

多卷积核🆚单卷积核
A stack of 4 Conv layers with filter size 3x3 has equivalent receptive field size to a single Conv layer of 9x9 filters (assume no padding and stride = 1)

figure from Lboro University sildes
多卷积核优势
1)参数更少,过拟合风险更小
2)参数更少,计算量更少
3)更多激活层,模型会具有更多非线性特性,更强的表示能力

  1. GoogLeNet
    GoogLeNet, Szegedy et al. 2015
    Naïve inception module, Szegedy et al. 2015

    解决方案:缩小输入维度
    GoogLeNet, Szegedy et al. 2015
    Inception module with bottleneck layers, Szegedy et al. 2015
  2. ResNet (Very deep network with 152 layers)

背景:如果只是简单的堆叠卷积层,则模型的性能不会随着深度越深,性能提高,因此提出残差网络(Residual Block),实验表明,残差网络可以有效提升深度网络性能

通过计算可知,在残差网络中,根据向后传播的链式法则\frac{\partial Out}{\partial In}=\frac{\partial(B(A(x))+x)}{\partial x}=1+\frac{\partial B}{\partial A}\frac{\partial A}{\partial x}

image.png
从中可以看出,即使此时,即使在Out-B-A的后向传播中出现梯度衰减的情况,Out的梯度依旧能够传到In,实现梯度的跨层传播

  1. Densely-connected network


    comparison between ResNet and Densely-connected network, from https://www.youtube.com/watch?v=xVhD2OBqoyg

    - 优点
    增快拟合速度,反向传播更健壮,梯度消失可能性更小
    从多层中学习特性,信息量更丰富
    重复利用feature maps,一定程度上减少卷积层

  • 缺点
    大量内存消耗,需要保存所有中间的feature maps

四、微调(Fine tuning)

通过现有的、已经训练好的模型,并修改其中的一些层来达到训练处新的模型的方法
Example: Fine tune AlexNet for clothing classification
Given: AlexNet pre-trained on ImageNet dataset
Aim: fine-tune it to classify clothing (shirt, jeans, etc)

Case 1: when we have very few data

Note: if the data is very few, it is worth to trying if a simple linear classifier (e.g. SVM) works


Note 2: if the pre-trained data is very different from the data in your task, it might be better to train a linear classifier (e.g. SVM) on shallower level features

Case 2: when we have more data

Note: you could free more layers to see if the performance gets better

Case 3: when we have very large amount of data

  • We could train the network from scratch(从头开始重新训练)
  • The performance may still benefit from initialization with pre-trained weights

注意⚠️:训练过程中容易出现过拟合
figure from Lboro University slides

解决过拟合常用方式:

  • 增加数据(Data augmentation):对于图像来说,可以放大缩小、旋转、增加噪声等
  • 设置Dropout
    figure from Srivastava et al., 2014
  • 设置Early stopping
    figure from Lboro University slides
  • 减少模型中的参数

五、自动编码器(Autoencoders)

自动编码器是一种数据压缩、降维无监督学习算法。它的目标是理解数据中的主要特性并且以压缩后的形式表现出来
figure from Lboro University slides

评判一个自动编码器的效果的方法是,把编码后的数据在恢复回来,如果保留了原始数据的主要特性,那么这个自动编码器效果就好

训练过程

  1. propagate input-to-output signals (feedforward pass)
  2. observe output and compare to input (i.e. find error)
  3. propagate error with BP and adjust weights
参考资料:
  1. 为什么残差网络(Residual Block)看似简单却极为有效?
  2. 神经网络中自编码器Autoencoder
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,039评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,426评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,417评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,868评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,892评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,692评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,416评论 3 419
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,326评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,782评论 1 316
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,957评论 3 337
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,102评论 1 350
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,790评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,442评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,996评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,113评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,332评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,044评论 2 355