Asynchronous Bidirectional Decoding for Neural Machine Translatio

用于神经机器翻译的异步双向解码

Abstract

主导神经机器翻译(NMT)模型应用统一注意力编码器 - 解码器神经网络进行翻译。 传统上,NMT解码器采用递归神经网络(RNN)以从左到右的方式执行转换,使得在翻译期间从右到左生成的目标侧上下文未被开发。在本文中,我们为传统的注意力编码器 - 解码器NMT框架配备了一个后向解码器,以探索NMT的双向解码。根据编码器产生的隐藏状态序列,我们的后向解码器首先学习从右到左生成目标侧隐藏状态序列。 然后,前向解码器在前向方向上执行翻译,而在每个翻译预测时间步长中,它同时应用两个注意力模型以分别考虑源端和反向目标端隐藏状态。通过这种新架构,我们的模型能够充分利用源和目标端上下文来完全提高翻译质量。NIST中英文和WMT英德翻译任务的实验结果表明,我们的模型分别实现了3.14和1.38 BLEU点对传统NMT的实质性改进。

Introduction

image.png

Table1具有不同解码方式的NMT系统的翻译示例。 L2R / R2L表示由NMT系统以从左到右/从右到左解码产生的翻译。 以波浪/虚线突出显示的文本分别是不正确/正确的翻译。
  通常,大多数NMT解码器基于递归神经网络(RNN)并以从左到右的方式生成翻译。 因此,尽管在每个时间步骤为先前编码无界目标词被预测的优点,但是这些解码器不能捕获用于翻译的反向目标侧上下文。 一旦在先前的预测中发生错误,由于嘈杂的前向编码的目标侧上下文的负面影响,后续预测的质量将被破坏。 直观地,反向目标端上下文对于翻译预测也是至关重要的,因为它们不仅提供互补信号,而且还给NMT模型带来不同的偏差(Hoang,Haffari和Cohn 2017)。以表1中的示例为例。 由传统NMT系统误解的中文句子的后半部分被由具有从右到左的解码的NMT系统准确翻译。 因此,研究如何将反向目标端上下文集成到解码器中以提高NMT的翻译性能是很重要的。
为此,许多研究人员采用双向解码技术引入NMT(Liu et al。2016; Sennrich,Haddow和Birch 2016a; Hoang,Haffari和Cohn 2017)。他们中的大多数使用双向解码分数对候选翻译进行重新排序,以便选择具有适当前缀和后缀的翻译。然而,这些方法也带来一些限制NMT中双向解码潜力的缺点。一方面,由于有限的搜索空间和beam search的搜索误差,所产生的最佳翻译通常远非令人满意,因此它不能提供足够的信息作为其他解码器的补充。 另一方面,因为双向解码器在翻译期间通常彼此独立,所以单向解码器不能完全利用由另一解码器产生的目标侧上下文,因此生成的候选翻译仍然是不期望的。 因此,如何有效地发挥双向解码对NMT的影响还有待进一步研究。
  在本文中,我们通过引入反向解码器来显着扩展传统的注意编码器 - 解码器NMT框架,以便充分利用反向目标侧上下文来改善NMT。如图1所示,与我们的新型异步双向解码器一起,所提出的模型仍然是端到端的注意NMT框架,其主要由三个部分组成:1)将输入源句子嵌入双向隐藏状态的编码器; 2)后向解码器,其类似于传统的NMT解码器,但是以从右到左的方式执行翻译,其中所生成的隐藏状态编码反向目标端上下文; 3)前向解码器,其从左到右生成最终翻译,并且考虑用于翻译预测的源端双向和目标端反向隐藏状态向量,同时引入两个注意力模型。与之前的相关NMT模型相比,我们的模型具有以下优点:1)后向解码器学习产生隐藏状态向量,其实质上编码潜在假设的语义,允许随后的前向解码器利用更丰富的目标端上下文进行翻译。 2)通过将从右到左的目标端上下文建模和从左到右的翻译生成集成到端到端的联合框架中,我们的模型在一定程度上减轻了反向目标端上下文建模的误差传播
本文主要贡献:
我们通过双向解码深入分析并指出了NMT研究存在的弊端。
我们引入了一个后向解码器来编码从左到右的目标端上下文,作为NMT传统上下文建模机制的补充。 据我们所知,这是首次尝试用异步双向解码器研究端到端注意力NMT模型的有效性。
实验很成功

我们的模型

主要包括三部分:神经编码器参数集θe
神经后向解码 参数集 θb;
神经前向解码 参数集 θf
选择GRU去创建编码解码器,

Neural Encoder

使用一个双向RNN去建模
前向RNN在left-to-right方向上读一个source sentence x = x1,x2...xN

我们使用反向编码器的第一个隐藏状态,表示为h1,去初始化正向解码器的第一个隐藏状态s0。更重要的是,我们介绍了两种attention模型去直接捕获源端和目标端上下文:一个是encoder-forward decoder attention model 这个模型是重点在源端注释,另一个是backward decoder-forward decoder attention model 考虑所有的反向目标端隐藏状态。
正向编码器的最后一个隐层状态hN 去初始化反向解码器的第一个隐层状态Sm

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,718评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,683评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,207评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,755评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,862评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,050评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,136评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,882评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,330评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,651评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,789评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,477评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,135评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,864评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,099评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,598评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,697评论 2 351

推荐阅读更多精彩内容