论文阅读:Enhanced LSTM for Natural Language Inference

一、摘要

Chen, Q., Zhu, X., Ling, Z., Wei, S., Jiang, H., & Inkpen, D. (2016). Enhanced LSTM for Natural Language Inference, (2008). https://doi.org/10.18653/v1/P17-1152

发表于ACL 2017

arxiv地址:http://arxiv.org/abs/1609.06038

代码:https://github.com/lukecq1231/nli

这篇论文认为序列推理模型并没有被好好研究,很多取得好效果的方法都是设计了很复杂的模型,所以他们提出 ESIM (Enhancing Sequential Inference Model) ,并融合了基于句法树的 tree-LSTM,能在 SNLI 上达到最佳效果(accuracy = 88.6%)。

二、问题

自然语言推理(NLI: natural language inference)问题:即判断能否从一个前提p中推导出假设h,简单来说,就是判断给定两个句子的三种关系:蕴含、矛盾或无关。

使用数据集是 Stanford Natural Language Inference (SNLI) dataset,570k English sentence pairs

这个问题和计算句子相似度有一个比较明显的不同,是结果是非对称的,但我也看到有人用这个模型计算句子的相似度(需要做一点改动)。

三、方法

image-20181008164804595

先放一张模型结构图,可以看到分为左右两边,左侧就是 ESIM,右侧是基于句法树的 tree-LSTM,两者合在一起交 HIM (Hybrid Inference Model)。整个模型从下往上看,分为三部分:input encoding,local inference modeling, and inference composition.

为了避免重复和麻烦,这篇笔记会只是用左侧 ESIM 的部分的标记和模型,右侧的处理方法基本一致。

3.1 notation

ab 是两个句子词向量(可能是预训练或者解析数)组成的矩阵

image-20181008154213870

3.2 input encoding

使用 BiLSTM 分别学习ab 的词与上下文信息,得到新的向量表示:

image-20181008154424931

注意这里的 a 和 b 是有下标的,表示的是词,词向量的维度是一样的。

3.3 local inference modeling

使用软对齐的方法 (soft alignment or soft attention)

3.3.1 计算词相似度矩阵

image-20181008155131108

3.3.2 句子相互表示做局部推理

image-20181008155248753

b 中所有词向量来表示 a 中每个位置的词,使用 3.3.1 中计算的相似度进行加权 (softmax)

3.3.3 局部推理信息增强

image-20181008155614228

将以上得到的对两个句子的表示做差和点积(element-wise product,每个元素单独相乘),更清晰地区别a和a(hat)的局部的推断信息,获取例如“对立”的推断关系。

下面用 \bar{a}, \bar{b}\hat{a}, \hat{b} 表示 3.2 和 3.3.2 产出的结果。

这里可以检查一下,如果词向量的维度是300,a 有10个词,\bar{a}\hat{a} 都是 10 * 300 的矩阵,所以 ma 的维度应该是 10 * 1200,相当于把每个词的表示从300维扩充到1200维。

3.4 inference composition

仍然是用 BiLSTM 组合 ma 和 mb,公式与 3.2 中相同,但目标变成了获取 local inference ma and mb 的上下文信息。

为了控制模型复杂度,使用了1层网络+relu激活处理 ma 和 mb,经 BiLSTM 之后得到的句子矩阵表示分别是 va 和 vb。

然后使用 avg + max pooling 得到一个定长的向量,输入到全连接网络中

image-20181008162311966

这里经过 pooling 之后的结果就与句子中词的个数 la 和 lb 无关了,v 是一个 4800 维的向量了。

3.5 MLP

  • 一个隐层(tanh激活)

  • 一个softmax的输出层

  • 用 multi-class cross entropy 作为 loss

四、实验与效果

  • 词向量用 Glove pre-train 300维,训练过程不 fix
  • 优化 adam,第一个 momentum 0.9, 第二个 0.999
  • learning rate 0.0004
  • batch size 32
  • 所有 LSTM, tree-LSTM 隐状态都是 300 维
  • dropout 0.5
image-20181008164505885

单独 ESIM 已经达到88%,超越了之前的很多模型,在融合 tree-LSTM 之后进一步提升到 88.6%

参考

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,204评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,091评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,548评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,657评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,689评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,554评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,302评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,216评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,661评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,851评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,977评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,697评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,306评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,898评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,019评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,138评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,927评论 2 355

推荐阅读更多精彩内容