贝叶斯模型实现拼音汉字混合识别模型
HMM模型实现拼音汉字混合识别
HMM由两个部分组成,马尔可夫链和一般随机过程。其中马尔可夫链用来描述状态的转移,在模型中用转移概率矩阵来表示。而这个链也就是我们上面说的路径。
一般随机过程用来描述状态与观察序列之间的关系,如果这个状态是未知的,那么也就是隐含状态,在模型中用隐含状态到观察值的转换概率来表示。
RNN神经网络模型实现拼音汉字混合识别
RNN:自回归神经网络模型,对在序列数据的处理中,也表现得非常抢眼,主要是由其网络结构所决定的。
LSTM是RNN的一种,是一种能够实现长短记忆的自回归网络。这种网络不尽能够记录长期影响,还能记录短期的影响,也就是对不同周期的影响因素赋予不同的权重,以决定不同影响周期内不同因素的参与度。
对于RNN网络,训练样本也是一个痛点,模型本身需要输入大量的训练样本,而训练样本的获得又是一个高成本的问题,所以针对这类网络,可以结构GAN和Dual Learning的理论框架进行扩展,一方面提升模型的准确度,另一方面降低训练样本的获得成本。