Attention for ASR

1 基于 Attention 的模型


Attention机制最先应用于机器翻译中,并在机器翻译中取得了最好的效果。其主要思想就是通过编码器(Encoder)将原序列转换成一个固定长度的隐层表示,然后解码器(Decoder)再根据这个隐层表示生成解码序列,生成解码序列过程中考虑当前解码输出与隐层表示中哪一部分最相关,这部分就是注意力机制。

在这个模型结构中,每一个条件概率输出定义为:

其中y_i表示第i时刻解码输出标记,X表示Encoder输入,y_{i-1}表示上一时刻解码输出,s_i表示i时刻的隐层状态,c_i表示上下文向量。其中s_i计算公式为

上下文向量c_i 是Encoder输出隐变量h_i 的加权和。

其中\alpha_{ij}即注意力权重。其计算过程如下:

其中

上式中的e_{ij}表示注意力机制的打分结果,实际上相当于一个相关性计算,具体的分数计算有多种方式,其反映了上一时刻隐层状态s_{i-1}与向量表示h_j之间的相关性。基本的Attention结构就是这样,接下来分析最近几年在这个结构基础上面的发展。

2 不同的 Attention 机制

Encoder-Decoder结构能够获得飞速发展的一个重要原因就是采用了Attention机制。探索不同的attention机制也是一个重要的研究方向。

2.1 不同的打分机制

Attention的核心思想就是计算当前要解码序列需要的输入信息与上下文信息之间的相关性。相关性的计算就是:

                                                  e_{ij} = score (s_{i-1},h_j)

其计算方式有多种:

(1)计算余弦距离

LAS模型就是采用了这种方式,由于隐层状态s_{i-1} 和上下文向量h_j并不在同一个特种空间中,要计算余弦距离,首先应该将他们转换到同一个空间中,因此文章中首先将他们各自输入到一个前馈网络中,计算网络输出的余弦距离,即实现了相关性计算。不同于其他模型,LAS中使用的是状态。

                                                            e_{ij} = < \Phi (s_i),\Phi(h_j)>

其中\Phi(·)即表示特征变换网络,其实就是前馈网络结构。

(2)直接进行计算

这种方式没有考虑两个向量位于不同的特征空间,直接计算打分结果。常见的有以下几种方式:


(3)打分过程中考虑上一时刻注意力权重

那么打分过程变成score(s_{u-1},\alpha_{u-1},h_t)具体计算公式如下:


其中f_{ut} = F \ast  \alpha_{u-1},\ast表示卷积操作。U,W,V,F,b,v都是被学习的参数矩阵。

2.2 Hard-Attention

Hard-Attention是在Image Caption Generation任务中提出的。常见的注意力机制是经过softmax层输出之后有不同的权重。α是一个向量,里面元素都是范围在[0,1]之间的小数,和为1。而采用Hard-Attention之后,注意力向量α中的元素只有一个是1,其余的都是0,也就是在每一个时间步,模型只关注一个位置。向量α是One-hot形式。

                                                            \hat z_t = \sum_i  s_{t,i}h_i

其中s_{t,i}表示在第t时刻的attention是否关注位置i

2.3 Soft-Attention

常见的注意力机制都是Soft-Attention。即注意力向量α中的不同位置的权重值不同,这样的soft attention是光滑的且是可微的。"Show, Attend and Tell: Neural Image CaptionGeneration with

Visual Attention" 中还对注意力机制进行了微调。

                                                          \hat z_t =\beta \sum_i  \alpha_{t,i} h_i

其中\beta = \sigma (f_{\beta} (s_{u-1})),用来调节上下文向量在LSTM中的比重。

在上面所讲的注意力权重α u,t 都是标量权重,这意味着向量h u 中的每个元素都给了相同的权重。"Advancing Connectionist TemporalClassification With Attention Modeling"中考虑为了使得hu 中的元素更加具有区分性,可以考虑把权重换成矢量\alpha _{u,t}

那么:

2.4 Global-Attention

global attention就是在Decoder计算注意力权重的每一时刻都考虑全部的上下文信息,赋予不同位置的上下文信息不同的权重,并加权求和。其计算方式就是与通常的计算方式一致。

2.5  Local-Attention

Global方式关注全局上下文信息,一方面这样有很大的计算量,另一方面在像语音识别这样的任务中,由于两种序列时序一致,注意力主要集中的位置是在时序对应的位置,其他位置的不需要特别关注。并且采用local-attention有助于推进Sequence-to-Sequence这里的上下文向量的计算每次都只focus窗口[p_t -D , p_t +D ]内的2D+1个source hidden states。D是经验选择的,文章中使用的是10。

这个方法像hard-attention,但是local-attention是可微的,因此更加容易训练。有人提出了local-m(local monotonic alignment)和local-p(local predictive alignment)两种local attention计算方式。p_t 是source position index,可以理解为attention关注的焦点.在local-m中p_t =t

在local-p中,

其中W_pv_p 都是模型的参数,S是source sentence的长度,那么p_t \in [0,S]。则权重计算如下:

我们很容易看出,距离中心p_t越远,其位置上的source hidden state对应的权重则被压缩的越厉害。

2.6 Multi-Head Attention

Multi-Head Attention(MHA)最初出现在Google的工作中。MHA在传统注意力机制的基础上扩展了多个head,每个head能够生成不同的注意力分布。这个允许每个head在focus编码器输出的时候,可以扮演不同的角色。这种方式能够帮助解码器更容易的从编码输出中检索出所需要的信息。传统的single-head attention更加依赖于编码器提供清晰的隐层表示以使得Decoder能够挑选出重要的信息。文章观察到MHA趋向于分配一个head去关注语句的开头,语句的开头往往包含大部分的背景噪声。因此可以猜测,在编码器输出不理想的情况下,MHA结构能够从噪声中区分语音信息。为了确保MHA在训练过程中确定能够关注到不同的位置,有文章研究在损失函数中增加正则项,以确保多个MHA之间存在差异。

3. CTC 与 Attention 混合结构

纯Attention方法虽然取得了不错的效果,但是在训练过程中存在着明显的收敛速度慢,震荡幅度大等问题。这很大程度上在于一开始Attention注意范围太广,难以收敛。因此有文章提出使用CTC辅助attention模型的训练,实验表明这种方法能够极大的提高模型的收敛速度。模型结构如图所示。模型成功的关键在于在损失函数中引入CTC Loss。

                                        Loss = \lambda  L_{CTC} + (1-\lambda)L_{Attention}

也可以理解为CTC帮助模型的Encoder获得了更加清晰的隐层表示。实验表明没有CTC辅助训练的结构在迭代9个epoch后仍然没有收敛,但是在CTC辅助训练的情况下,模型在5个epoch的时候已经收敛了。

Attention结构在采用大的建模单元时候往往能够获得很好的性能,但是建模单元越大,OOV问题也就越严峻,可以采用CTC与Attention共同解码来实现。模型中CTC部分使用Charcter-Level的建模单元,Attention部分使用Word-Level的建模单元。两种模型结构公用一个Encoder部分。模型结构如图所示。

其实现的关键在于采用了混合Loss:

                                     Loss = (1-\lambda )L_{character}+\lambda L_{word}

在解码阶段,如果对应于Attention的Decoder中非OOV的词汇,则使用对应的输出。如果最大概率的输出是OOV标记,则使用CTC中的结果进行代替。为了实现混合解码,CTC部分除了增加blank,还应该增加一个词边界标记wb。解码过程如图所示。

4. Transformer(Self-Attention)

5. Attention 模型的训练技巧

目前至少证明有以下几个技巧对于训练基于Attention的模型有帮助。

(1)采用大的建模单元,sub-word,word等,这样的建模单元更加稳定并且有助于语言建模。

(2)引入Scheduled Sampling,解决Attention模型中训练和推理过程的不匹配问题。

(3)Multi-Head Attention,MHA方法能够生成不同的注意力分布,在Decoder解码过程中,关注上下文向量的不同方面。

(4)采用Label smoothing方法来避免模型对于自己的预测结果过于自信。

结果:

(5)整合额外的语言模型(在更大的文本语料上训练的),因为Attention模型的受限于语料规模,没有语言模型的结构还是不能与常见的模型相匹敌。

(6)使用最小化词错误率的方式进行区分性训练。

(7)模型除了训练和推理过程中的不匹配问题,还存在损失函数之间的不匹配。

训练时通常使用CER,而在评价阶段使用WER等,中引入强化学习中的Policy Gradient方法,直接优化WER,来进行端到端的训练。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,591评论 6 501
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,448评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,823评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,204评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,228评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,190评论 1 299
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,078评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,923评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,334评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,550评论 2 333
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,727评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,428评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,022评论 3 326
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,672评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,826评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,734评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,619评论 2 354

推荐阅读更多精彩内容