自然语言处理—BERT

BERT(Bidirectional Encoder Representations from Transformers)

在 ACL 上,Devlin, Chang, Lee 和 Toutanova 发表于 2019 的文章— BERT:Pre-training of deep bidirectional transformers for language understanding。

那么什么是 BERT 呢? 我们先从字面上解释一下什么是 BERT,我们将词分开来一个一个地看来解读什么是 BERT。

  • Bidirectional : 是双向神经网络,这个在学习 RNN 时候我们就了解到如何使用双向 RNN 让每一个词视野更加广阔,不但可以看到其前面词还能看到其后面的词
  • Encoder : 说明 BERT 是编码器
  • Representations : BERT 是完成词的表征的任务的模型,之前我们已经学过了了 word2vec
  • Transformer: 其实 BERT 就是 transform 解码器部分,表示 BERT 结构没有采用 LSTM 这样 RNN 结构,而是采用了 Transformer 这样结构来实现双向循环神经网,Transformer 对象 LSTM 的优势是并行计算

那么 BERT 用途是啥呢

human_labeling.jpeg

我们先说 BERT 的优点,就是在训练 BERT 时候我们不需要人工数据集,随便那些文本资料就可以用于训练 BERT,这些文本可以小说、技术书刊、杂志或者是网页等等来做预训练。

computing_power.png

但是 BERT 也不是完美无缺,BERT 需要大量算力才能进行 BERT 的训练

recieve_message.jpg
  • 简单介绍一下 BERT 中的两个任务
  • 以及两个任务的作用
  • 如何将两个任务设计到一个网络结构中

双向变换器编码表征(Devlin at al, 2018)

  • 上下文
  • (巨大)的 transformer 编码器

| 版本 | block |hidden units |heads | parameters |GPU | time |
|---|---|---|---|---|---|---|---|
| Small | 12 | 768 | 12 | 110M | 16TPU | 14 days|
| Large | 24 | 1024 | 16 | 340M |

  • 如果要用亚马逊的服务可能要花费 1 万美元才能训练出小规模的 BERT

  • I went to the bank to deposit some money

  • I went to the back to sit down

预训练

  • 提高模型的泛化能力的方法

  • 随机遮挡一个单词,让编码器(encoder)根据上下文来预测被遮挡的单词

  • 将两句话放在一起,让编码器(encoder)来判断这两句话是不是原文中相邻的两句话

任务1—预测被遮挡的单词

BERT_002.png
  • 输入是文本序列,经过预处理,有关如何对文本进行预处理之前已经给大家介绍过,将文本切分为单词
  • 经过 Embedding Layer 将每一个单词映射为词向量
  • 经过 Transformer 的编码器(Encoder) 后得到
BERT_005.png
  • 从一句话中对所有 token 进行随机选取,每一个 token 选取可能性都是 15%
    • 80% 用 <mask> 替换掉这个词
    • 10% 用一个 <random token> 来替换掉这个词
    • 10% 用 cat 这个词
  • transformer 中有注意力机制,所以 u_M 和输入 x 并不是一对一映射,而是多对一映射。
BERT_006.png

从上图不难看出 u_M 包含所有输入序列的单词信息,所以可以用 u_M 来预测遮挡位子的单词

BERT_007.png

将特征向量 u_M 输入到一个 Softmax 分类器,经过 Softmax 分类器得到一个 p 向量,p 也是概率分布,我们希望 p 向量接近 cat 的 one-hot 向量

Loss = crossEntropy(e,p)

任务2—预测下一个句子

  • 50% 将下一句随机替换为
  • 将 Transformer 输出,输入到一个全联接层来预测序列对
  • 给定句子 calculus is a branch of math
  • 在原文中下一个句子是 it was developed by newton and leibniz
  • panda is native to south central china

接下来是如何制作数据集,就是将两句话拼接起来,在最第一句话前面添加 [CLS] 在两句话之间添加 [SEP] 表示分隔两句话

BERT_011.png

其实之前有关 mask 掉一个词来通过预测 masked 的词来训练词向量,大家还能理解,但是对于为什么通过预测两个句子,大家可能就会有点摸不着头脑了,为什么这样做有易于词向量的训练呢?

  • 在 Transformer Encoder 有 self-attention 层,self-attention 就是要找相关性,这种任务便于找到相关性
BERT_020.jpg

组合任务

BERT_012.png
BERT_015.png
小例子 1
  • input
    • calculus is a [MASK] of math
    • it [MASK] developed by newton and leibniz
  • Targets
    • true
    • branch
    • was
小例子 2
  • input
    • calculus is a branch of math
    • panda is native to [MASK] central china
  • Targets
    • flase
    • south
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,839评论 6 482
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,543评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,116评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,371评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,384评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,111评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,416评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,053评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,558评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,007评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,117评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,756评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,324评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,315评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,539评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,578评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,877评论 2 345

推荐阅读更多精彩内容