深度学习中常见的激活函数总结

姓名:寇世文

学号:21011110234

学院:通信工程学院

【嵌牛导读】:作为一个十余年来快速发展的崭新领域,深度学习受到了越来越多研究者的关注,它在特征提取和建模上都有着相较于浅层模型显然的优势。深度学习善于从原始输入数据中挖掘越来越抽象的特征表示,而这些表示具有良好的泛化能力.它克服了过去人工智能中被认为难以解决的一些问题。且随着训练数据集数量的显著增长以及芯片处理能力的剧增,它在目标检测和计算机视觉、自然语言处理、语音识别和语义分析等领域成效卓然,因此也促进了人工智能的发展.本文对深度学习常用的激活函数进行总结。

【嵌牛鼻子】深度学习,激活函数

【嵌牛提问】深度学习中的激活函数

【嵌牛正文】

        在深度学习中,我们经常会提到激活函数这个概念,常见的激活函数包括Sigmoid函数,tanh函数, ReLU函数等。激活函数是神经网络基本模型中的一个基本结构,激活函数在神经网络中的位置,如下图所示.其中神经元的输出Y为式:


图1-1人工神经元结构图


公式1-1

 神经网络中每个神经元节点接受上一层神经元的输出值作为本神经元的输入值,并且将输出值传给下一层,输入层神经元节点则会将输入属性值直接传递给下一层。在多神经网络中,上一层节点的输出和一层节点的输入之间具有一个函数关系,而这个函数关系就称之为激活函数。

(1)激活函数的作用

        如果没有激活函数对上式中Y的输出进行限制,这样以来无论神经网络的结构如何复杂,它的输出将会永远是其输入的线性组合。通过激活函数的设置,每个神经元在输出前都会经过特定的函数激活,从而可以给人工设计的神经网络引入非线性元素,使得该网络结构可以在理论上模拟任意函数,增加神经网络使用上的通用性。下节介绍了几种常见的激活函数。

(2)常见的激活函数

       a) Sigmoid 函数是深度学习中最为常见的激活函数之一,它的函数图像如图1-2所示。


图1-2 Sigmoid函数

  Sigmoid函数能够吧输入的连续的实值变换成为0和1之间的输出,特别地,如果是非常大的负数,那么输出就是0;如果是非常大的正数,则经过它的输出则是1。但是sigmoid虽然在一定程度上满足了非线性拟合的目的,但是近些年来,sigmoid的使用率却越来越低。一来是因为它无法解决反向传播求梯度时导致的梯度爆炸和梯度消失现象。其中梯度爆炸发生的概率相对较小,而梯度消失的发生概率却相对较大。下图为sigmoid函数的导数图像。

图1-3 Sigmoid导函数

如果我们初始化神经网络的权值为(1,+∞)之间的随机值,由反向传播算法的数学推导可知,梯度从后向前传播时,每传递一层梯度值都会减小为原来的0.25倍,如果神经网络隐层特别多,那么梯度在穿过多层后将变得非常小接近于0,即出现梯度消失现象;当网络权值初始化为区间内的值,则会出现梯度爆炸情况。另外,

Sigmoid 的 output

不是0均值(即zero-centered)。这是不可取的,因为这会导致后一层的神经元将得到上一层输出的非0均值的信号作为输入。

产生的一个结果就是:如x>0,那么对求局部梯度则都为正,这样在反向传播的过程中w要么都往正方向更新,要么都往负方向更新,导致有一种捆绑的效果,使得收敛缓慢。

        b)Tanh函数

        Tanh函数同样也是激活函数中较为常见的一种,它的函数的函数表达式如下;


公式1-2

Tanh函数及其导函数的图像如下:


图1-4 tanh函数图像


图1-5 tanh导函数图像

Tanh函数是在其函数表达式的基础上经过放大或缩小处理后的结果。图2-4为Tanh函数的在定义域为[-10,10]上的函数曲线图。由图可以看出该函数是一个值域在(-1,1)区间内的非线性函数。通过对比可以发现Tanh函数的曲线变化比Sigmoid函数更加陡峭,函数值增减更加剧烈。Tanh函数在一定程度上改善了sidmoid函数,但是梯度消失的问题仍然没有完全避免。

        c) ReLU函数

ReLU函数的函数解析式为:


公式1-3


图1-6 ReLU函数图像


图1-7 ReLU导函数图像

 目前ReLU是最常使用的一个激活函数,它实质上就是一个取最大值函数,但是它并不是全区间可导的,不过在一般情况下可以取sub-gradient,如上图所示。ReLU虽然简单,但却是近几年的重要成果,它在正区间内解决了梯度消失的问题,同时因为在使用它的过程中只需要判断输入是否大于零,所以它具有较快的计算速度,收敛速度远快于sigmoid和tanh函数。

        d)Leaky ReLU函数

        其中Leaky ReLU的函数表达式为:


公式1-4

 它的图像和导函数图像如下所示。


图1-8 Leaky ReLU函数图像


图1-9 Leaky ReLU导函数图像

 为了解决DeadReLU Problem, 提出了将ReLU在(-∞,0)区间内为αx,而非是0,通常α=0.001。Leaky

ReLU继承了ReLU的优点,同时也进一步解决了Dead ReLU的问题,但是实际情况中,LeakyReLU并不一定总比ReLU的效果好。

        e)ELU函数

           ELU函数的表达式:


公式1-5

  ELU的提出是为了解决ReLU存在的Dead ReLU问题,它继承了ReLU的优点同时输出的均值接近于0。


图1-10ELU函数图像
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,922评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,591评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,546评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,467评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,553评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,580评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,588评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,334评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,780评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,092评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,270评论 1 344
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,925评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,573评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,194评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,437评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,154评论 2 366
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,127评论 2 352

推荐阅读更多精彩内容