概率图模型

https://zhuanlan.zhihu.com/p/33397147
https://www.bilibili.com/video/av52273255/
概率图模型(probabilistic graphical model, PGM)指用图表示变量相关(依赖)关系的概率模型,主要分为两类:

  • 有向图模型或贝叶斯网(Bayesian network),使用有向图表示变量间的依赖关系;
  • 无向图模型或马尔可夫网(Markov network),使用无向图表示变量间相关关系。


监督学习的任务就是学习一个模型,对于给定的输入X,能预测出类别Y。所学习到的模型一般可表示为决策函数:
\begin{equation} Y = f(X) \label{eq:deci} \end{equation}或者条件概率\begin{equation} \arg \mathop{max}\limits_{Y} P(Y|X) \label{eq:cond} \end{equation}
监督学习的模型分为生成模型(generative model)与判别模型(discriminative model)生成模型学习联合概率分布P(X, Y),然后通过贝叶斯定理求解条件概率,而判别模型则是直接学习决策函数或条件概率。

HMM

HMM适用于以下情况:①问题是基于序列的,如时间序列、状态序列 ②问题有两类数据:一类是可观测到的,即观测序列;一类是不可观测到的,即隐藏转态序列。
HMM基于以下两个假设:齐次马尔科夫链假设:即任意时刻的隐藏状态只依赖于它前一个隐藏状态,即从时刻t到时刻t+1的状态转移概率a_{ij}a_{ij} = P(i_{t+1} = q_j | i_t= q_i)
观测独立性假设,即任意时刻的观察状态只仅仅依赖于当前时刻的隐藏状态,即观测状态v_k在隐藏转态q_j下生成的概率为P(v_k|q_j)

HMM属于生成模型的有向图PGM,通过联合概率建模:
P(S,O) = \prod_{t=1}^{n}P(s_t|s_{t-1})P(o_t|s_t)其中,SO分别表示状态序列与观测序列。HMM的解码问题为\arg \mathop{max}\limits_{S} P(S|O);定义在时刻t状态为s的所有单个路径s^t_1中的概率最大值为\delta_t(s) = \max P(s_1^{t-1}, o_1^{t}, s_t=s),则有
\begin{aligned} \delta_{t+1}(s) & = \max P(s_1^{t}, o_1^{t+1}, s_{t+1}=s) \\ & = \max_{s'} P(s_1^{t-1}, o_1^{t}, s_t=s') P(s_{t+1}|s_t) P(o_{t+1}|s_{t+1}) \\ & = \max_{s'} [\delta_t(s') P(s|s')] P(o_{t+1}|s) \end{aligned}
此即为维特比算法递推式,可以看出HMM是通过联合概率来求解标注问题的。

HMM缺点:不适合处理大规模数据
HMM优点:有好的可解释性

MEMM
最大熵隐含马尔科夫

CRF
条件随机场
条件随机场假设输出变量构成马尔科夫随机场,而我们平时看到的大多是线性链条随机场,也就是由输入对输出进行预测的判别模型。求解方法为极大似然估计或正则化的极大似然估计。


问:为什么Bi-LSTM+CRF效果好?
LSTM的优点是能够通过双向的设置学习到观测序列(输入的字)之间的依赖,在训练过程中,LSTM能够根据目标(比如识别实体)自动提取观测序列的特征,但是缺点是无法学习到状态序列(输出的标注)之间的关系,要知道,在命名实体识别任务中,标注之间是有一定的关系的,比如B类标注(表示某实体的开头)后面不会再接一个B类标注,所以LSTM在解决NER这类序列标注任务时,虽然可以省去很繁杂的特征工程,但是也存在无法学习到标注上下文的缺点。相反,CRF的优点就是能对隐含状态建模。所以一般的做法是,在LSTM后面再加一层CRF,以获得两者的优点。
CRF其实是在LSTM已经学习到发射概率矩阵的基础上学习一个转移概率矩阵
lstm在序列标注的问题,落实到题主说的ner,也就是一个seq2seq,在英文中,可以是对每一个input的单词,对例如bieo的四个标签进行预测,假设当前输出的事100个words,那个输出的就是100*4的一个概率预测,这应该就是答主的疑惑,我们直接用一个分类器,四个里面选一个就好了,为什么要再接crf呢?那么,我们首先考虑我们使用lstm的初衷,就是为了考虑上下文来分析当前的tag标注,其实crf也是接近的原理,crf意会一点的描述其实有点像一张概率图,在single crf中,你需要做的是尽可能的对每个对象挖掘多的特征,然后学习他们之间的一种“衔接”关系,在lstm后面加上crf,相当于对lstm抽象过的一种语言关系来进行crf训练


问:CRF与HMM的异同
CRF与HMM都是概率图模型,HMM是生成模型,需要求得的是联合概率分布,即上帝视角,是基于统计得到发射矩阵和转移矩阵。CRF属于判别式模型,不需要这些上帝信息,CRF的学习参数是特征函数的权重w


问:CRF与MEMM的异同
1、首先二者都是概率图模型
2、MEMM求解是局部最优,CRF求解是全局最优
3、由于MEMM求解是局部最优,故存在标签偏置现象(label bias)
CRF不仅解决了HMM输出独立性假设的问题,还解决了MEMM的标注偏置问题,MEMM容易陷入局部最优是因为只在局部做归一化,而CRF统计了全局概率,在做归一化时考虑了数据在全局的分布,而不是仅仅在局部归一化,这样就解决了MEMM中的标记偏置的问题。使得序列标注的解码变得最优解。

参考:https://zhuanlan.zhihu.com/p/33397147

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,372评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,368评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,415评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,157评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,171评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,125评论 1 297
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,028评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,887评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,310评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,533评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,690评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,411评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,004评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,659评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,812评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,693评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,577评论 2 353