[机器学习入门] 李宏毅机器学习笔记-15 (Unsupervised Learning: Word Embedding;无监督学习:词嵌入)

[机器学习入门] 李宏毅机器学习笔记-15 (Unsupervised Learning: Word
Embedding;无监督学习:词嵌入)

PDF VIDEO

Word Embedding

Word Embedding 是前面讲到的dimension reduction一个很好的应用。

这里写图片描述

1-of-N Encoding,是把所有的word用一个向量表示,每个向量都不一样,我们没办法从中获得更多的信息,比如猫和狗都属于动物,所以这时我们用Word Class将其分为n个类型,但又有了另一个问题,我们同样无法得知两个类型之间的相关性,所以要采用Word Embedding方法,就是把每一个word都投射到一个高维空间里,两个相似的类型隔得距离较近,这样就能得到相关性。
那么怎样让机器读懂词汇呢?

这里写图片描述

只知道输入,不知道输出,这就是一个无监督学习。

这里写图片描述

核心思想就是,通过该词语的上下文。

这里写图片描述

How to exploit the context?

有两个方法:
1.Count based


这里写图片描述

2.Prediction-based
用 前面words 作为neural network的输入 预测下一个词的几率。


这里写图片描述

Prediction-based

训练出neural network,所以我们将他的第一个hidden layer拿出来,就能将它们对应到相应的空间。

这里写图片描述

但是,仅通过一个词汇就要预测下一个词汇是很难的,所以通过Sharing Parameters来进行增强。

Sharing Parameters

不仅用前一个word,还用前n个词来一起预测。

这里写图片描述

同样的weight是为了让同一个word放在i-1的位置和i-2的位置都有同样的transform,Or, one word would have two word vectors.另外的好处是可以减少参数量。
计算过程:

这里写图片描述

怎样让W1,W2等参数的weight一样呢?

这里写图片描述

那么怎样来训练这个network呢?

Training

完全是无监督的。

这里写图片描述

Various Architectures 有几招:

这里写图片描述

回到Word Embedding

Word Embedding

可以发现,我们把同样类型的word摆在一起,他们之间是有固定的关系的。

这里写图片描述

所以就可以从中发现一些关系。
比如让两个word两两相减,然后project到一个space上,如果落到同一处,则他们之间的关系是很类似的。

这里写图片描述

有了这个特性,这样我们就可以做一些预测工作。

这里写图片描述
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 文章作者:Tyan博客:noahsnail.com | CSDN | 简书 翻译论文汇总:https://gith...
    SnailTyan阅读 10,055评论 0 8
  • 机器学习(Machine Learning)&深度学习(Deep Learning)资料(Chapter 1) 注...
    Albert陈凯阅读 22,372评论 9 476
  • 早餐是啤酒加饼,葱花饼,干巴巴不知道放了几天,塞进喉咙,像一块硬铁,啤酒此时倒像甘露一般了。 我说,路,怎么日子过...
    王是白阅读 399评论 0 1
  • 2017年3月16日。她永远的离开了我们。人,向死而生。而她,到达了生命的终点。 人的生命就好像一个轮回。看着体态...
    蕉蔬酱阅读 740评论 0 0
  • 文/雍万萍 午夜的钟声早已敲响 想起我亲爱的母亲 勾起我心底的忧伤 揉碎了我的肝肠 耳畔 像又听见你的声音 眼前 ...
    频彩阅读 339评论 2 3