CS224N(8)-机器翻译与Seq2Seq

机器翻译与seq2seq

一、早期的机器翻译

机器翻译(MT)是将句子x从一种语言(源语言)翻译成另一种语言(目标语言)的句子y的任务。
机器翻译发展到现在经历了多个阶段。

1、Early Machine Translation

机器翻译的研究最早开展在1950s,这个时期的机器翻译系统主要是基于规则的,其核心思想是使用双语词典将源语言的单词映射到目标语言的单词,如使用一个双语词典将俄语单词映射到英语单词。

2、Statistical Machine Translation(SMT)

机器翻译的第二个发展时期实在1990s-2010s,这个时期的机器翻译系统主要是基于统计信息的,其核心思想是从数据中学习一个概率模型。
假设我们需要将法语翻译为英语。那么我们要做的事情就是根据给定的法语句子找出与其最匹配的英语句子。
使用贝叶斯规则将其分解为两个要分开学习的部分(如下图所示):


那么我们如何来学习到模型P(x|y)呢?
首先,我们需要大量的并行语料。然后我们将问题进一步分解为求解P(x,a|y),a代表的是词水平的对齐步骤。对齐是翻译句子对中特定单词之间的对应关系。

机器翻译中的对齐需要注意:

1.有些词是找不到其对应的词的
2.对齐可能是一对多的
3.有些词在另一个语言中可能没有对等的单词,但是可能找到与其对等的由多个词组成的短语
4.对齐也可能是多对多的

接下来我们要计算的是:


那我们如何来计算argmax呢,首先,我们很容易想到的就是枚举的方法,枚举每一个可能的y并计算概率,但是这种方法计算量太大了。一种更合适的方法就是使用启发式搜索算法搜索最佳翻译,将概率过低的排除,这个过程被称为解码。


SMT是一个巨大的研究领域,这个系统非常复杂

.在这里数百个重要细节没有被提及
.系统有许多单独设计的子组件
·需要大量的特征工程
·需要编译和维护额外的资源
·需要大量人力维护

二、神经网络与Seq2Seq

1、Neural Machine Translation(NMT)

神经机器翻译(NMT)是一种利用单一神经网络进行机器翻译的方法。这其中使用的神经网络结构又被称为Seq2Seq模型(一般由两个RNN组成)。
其网络结构图如下所示:

需要注意的是,Seq2Seq模型不仅仅是应用与机器翻译的,它还可以应用于多个领域,包括文本摘要、对话系统、文本解析、代码生成等。

Seq2Seq模型是条件语言模型的一个示例。之所以说它是语言模型,是因为解码器正在预测目标句子y的下一个单词,之所以是有条件的,是因为它的预测也取决于源句x。
NMT是直接计算P(x|y)的,其公式如下:

我们在训练NMT的时候。也需要大量的语料。训练示意图如下:

Seq2seq作为单个系统是进行了优化的,其反向传播过程是“端到端”的。

在Decoding部分,方法有很多:

1.Greedy decoding,生成解码的目标句子时,在解码器的每一步上取argmax,但贪心解码无法撤销决策,容易陷入局部最优解。该方法在在我们模型产生<END>令牌的时候停止。

2.Exhaustive search decoding,其核心思想是找到一个(长度T)翻译y,最大化其概率:



这样的话,我们需要尝试去计算所有可能的序列y,这意味着在解码器的每个步骤t,需要找出Vt可能的部分翻译,其中V是词汇大小。这种O(VT)复杂度太高了!
3.Beam search decoding,其核心思想是在解码器的每一步,找出k个最可能的部分翻译。我们假设y1,...,yt的得分是其对数概率:

分数都是负数,分数越高越好。我们寻找高分假设,并且找出每一步的前k个高分。但是这个公式有个缺点,即句子越长分数会越低,因此就有了下面这个使用长度归一化的句子:

但是,Beam search不能保证找到全局最优解,但是它的效率要比Exhaustive search decoding高的多。Beam Size一般取5-10。在Beam search中,当我们到达时间步T(其中T是我们自定义的阈值),或者我们找到了n个值(n是我们自己设定的阈值)

Beam search过程如下:

与SMT相比NMT有如下优点:

1.性能更好,更流畅、能更好的利用上下文、能充分利用短语相似性。
2.使用端到端的单个网络,无需单独优化子组件
3.需要的人力更少,不需要进行特征工程、可对所有语言对进行处理

但是它也有些不足:

1.NMT的解释性较差,难以调试。
2.NMT难以控制,例如,无法轻松指定翻译规则或指南,存在安全问题!

2、MT的评价指标

BLEU (Bilingual Evaluation Understudy),BLEU将机器编写的翻译与一个或多个人工翻译进行比较,并根据以下因素计算相似度分数:1、n-gram精度(通常为1,2,3和4-grams),2、对比较短的系统翻译添加惩罚项。

但是BLEU也有些不足,例如,翻译句子的方法很多因此,良好的翻译可以获得较差的BLEU分数,因为它与人类翻译的n-gram重叠率较低?

3、MT当前面临的问题

就目前来看,MT还面临这许多问题:

1.OOV问题,即未登录词的问题。
2.训练集和测试集之间的域不匹配
3.需不断维护较长文本的上下文
4.语言对的资源比较少
5.无法理解常识
6.训练出的模型存在偏见
7.无法解释系统做的一些奇怪的事情

三、Attention

在机器翻译中,对源语言进行encoding时,要捕获有关源句的所有信息。但传统的Seq2Seq模型无法捕获到全部的信息,特别是句子十分长的时候,因此会产生信息瓶颈。而注意力提供了瓶颈问题的解决方案。其核心思想是:在解码器的每个步骤中,使用与编码器的直接连接的方法来聚焦于源序列的特定部分。
下面是其结构示意图:

其公式部分如下:

Attention的优点如下:

1.允许解码器专注于源语言中的某些重要的部分
2.注意力机制解决了瓶颈问题
3.注意力机制允许解码器直接查看源语言; 绕过瓶颈
4.注意力机制有助于消除梯度问题
5.为远距离状态提供了捷径(不太理解这句话)
6.注意力机制具有可解释性
7.通过可视化操作,我们可以看到解码器所关注的内容
8.网络本身可以自动学习到软对齐

我们已经看到注意力机制是改进机器翻译的序列到序列模型的好方法。但是:您可以在许多架构和任务中中使用注意力机制,即在非Seq2Seq结构和非MT任务中使用。

关于注意力机制的另一种解释是:给定一组矢量值和矢量查询,根据查询来计算值的加权和的方法。

加权和是值中包含的信息的选择性摘要,其中查询确定要关注的值。注意力是获取任意一组表示(值)的固定大小表示的一种方法,取决于某些其他表示(查询)。

下面是几种注意力机制的变体:
假设我们有值h_1,...h_N\in R^{d_1}和查询s\in R^{d_2}
对于每种Attention,我们都需要计算如下值:

Attention变体:

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,332评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,508评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,812评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,607评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,728评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,919评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,071评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,802评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,256评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,576评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,712评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,389评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,032评论 3 316
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,798评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,026评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,473评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,606评论 2 350

推荐阅读更多精彩内容