本章存疑
2.3.4讨论了高斯分布的最大似然估计,现在来讨论一个更一般的话题:最⼤似然的顺序估计。
顺序的⽅法允许每次处理⼀个数据点,然后丢弃这个点。这对于在线应⽤很重要。并且当数据集相当⼤以⾄于⼀次处理所有数据点不可⾏的情况下,顺序⽅法也很重要。
考虑均值的最大似然估计结果,当他依赖于第次观察时,记作,有
在观测到的数据点时,我们已经得到了了,当观测到时我们就可以得到一个修正的估计,随着的增加,后续数据点的贡献也会变小。
以上的公式是根据高斯分布的最大似然估计公式推导得到的,为了寻找一个更加通用的顺序学习方法,这里就引出Robbins-Monro算法。
Robbins-Monro算法:考虑⼀对随机变量和,它们由⼀个联合概率分布所控制。给出特定,变量z的条件期望由以下的函数确定:
这个公式看前面两部分就够了,可以理解为,但是这个函数的求解要通过多次采样回归得到,意思就是当为某取值的时候,会有概率的可能取某值,这是因为有一定的噪声干扰(如下图)而导致不存在一个闭式解。
通过这种⽅式定义的函数被称为回归函数,我们的⽬标是寻找根使得。
如果我们有观测和的⼀个⼤数据集,那么我们可以直接对回归函数建模,得到根的⼀个估计。
如果我们每次观测到⼀个z的值,我们想找到⼀个对应的顺序估计⽅法来找到,解决这种问题的通用方法如下:
首先我们假定z的条件方差是有穷的:
同时我们也假设当时,当时,Robbins-Monro给出了一个根顺序估计的公式
这个公式给出的顺序估计确实以概率为1收敛于根
其中是当取值为是的观测值,系数表示一个满足一下条件的正数数列:
以上三个条件: 条件一确保后续的修正幅度会变小,条件二确保算法不会收敛不到根,条件三保证累积的噪声具有一个有限的方差,收敛不会失败
现在用Robbins-Monro来顺序估计
根据定义(上一章),最大似然解是负对数似然函数的一个驻点,因此有
取,有
等式右边,我们应用Robbins-Monro方法,形式为
就是高斯分布均值的估计
随机变量的形式为
的分布是一个高斯分布,均值为,如下图。