第三次复习概率论与数理统计,希望理解比之前更深刻。
仅代表本人理解,如果错误欢迎指出。
一、大数定理
直观地理解是:当样本的容量足够大(或者实验的次数足够多),样本的均值收敛于总体的均值。
投硬币实验中,设置随机变量X,当投到正面时,X=1,投到反面时X=0。做10次实验,样本的均值可能为0-1之间的任意值,但是做1000、10000次实验,X的期望值将接近于0.5。
二、三大分布
-
二项分布
独立重复n次实验,实验结果只有两种且互斥,假设为成功和失败。成功的概率为p,失败的概率为1-p。则n次实验中n次成功的概率为:
image.png -
泊松分布
可以由二项分布推导而来,当实验次数n足够大,p非常小时(n>=20,p<=0.5),二项分布可以近似为泊松分布。
举例来说:单位时间内的车流量可以看作一种泊松分布。假设我们通过观察知道一个小时内的平均车流数:lamda,求一小时内车流量为k的概率。
假设一种情况:路上一分钟内最多只能有一辆车通过,那么在每一分钟内,都可以看成一次伯努利实验(结果只有一辆车通过和没有车通过两种可能),那么60次实验相当于一个n=60的二项分布。但是我们的假设可能不太符合现实,一分钟内可能有多辆车通过(n太小),为了满足二项分布的性质,我们确定一个极小的时间段,使得在该时间段内,最多只有一辆车通过(即n取得特别大),此时单位时间内出现一辆车的p值=lamda\n非常小。套用二次项的公式再求极限,可以得到泊松分布的公式:
image.png - 正态分布
自然界中最多的一种分布,二项分布n较大时,可近似为正态分布的形状。二项分布和泊松分布都是离散分布,而正态分布是一种连续分布。
三、假设检验
- 两类错误
- 第一类错误: 弃真错误。本来应该接受原假设,但是由于显著性水平α设置过大,使得统计量落入了拒绝域,从而拒绝了原本是真的原假设。α的减小可以减少此类错误的发生。
-
第二类错误:取伪错误。本来应该拒绝原假设,但是统计量落入了接受域。取伪的概率为β。如图,我们本来应该接受备选假设落入黄色的区域内,但是由于抽样误差,落入了绿色范围,于是接受了原假设,造成了取伪。1-β是避免第二类错误的概率,被称为统计功效。
从图中可以看到,α和β是一增一减的关系,α增大,β会减小,反之α减小,β会增大。
减少两类错误的唯一办法是:增大样本量,使得统计量尽可能消除偶然性。
图源网络.png
- 中心极限定理
非常重要的一个定理,通俗来说:不论总体服从什么分布,当抽样的样本足够大时,样本的均值服从正态分布,均值为样本均值,标准差为总体标准差除以根号n(n为样本容量)。 当样本容量n大于30时,可以认为是大样本。 - α值和p值
- α值:显著性水平,落入拒绝域的概率(拒绝原假设的概率),当构造的统计量落在该区域内,拒绝原假设。
- p值:在原假设成立的情况下,检测统计量大于或小于具体样本观测值的概率。当这个值小于α时,我们拒绝原假设,否则接受。
举例来说:H0:总体均值u=u0;H1:总体均值小于u0。样本容量足够大
第一步:样本容量足够大,中心极限。样本均值服从均值为u0的正态分布,构造z统计量z0;
第二步:算出检测统计量z小于z0的概率p(利用分布函数算面积),发现算出来的p值小于α,拒绝原假设。
(可以这样理解:我们需要把显著性水平定到小于现α的一个值(p值)才能保证样本观测值落入接受域内,说明原假设是不成立的。或者说当原假设成立,统计量小于或者大于观测值是一个非常小的概率事件,说明我们要拒绝原假设)
-
实际如何应用:ABtest
硬骨头,待填坑。
image.png
AB test是什么:个人理解是像高中生物实验那种确定一个对照组和一个控制组,对照组实行旧方案,控制组实行新的方案。通过抽样和假设检验,判断两者总体的分布情况,从而判断新方案实施是否有效,或者效果是否明显。这里的假设检验可以对照独立分布的两个样本的总体分布。
难点:样本容量的确定,过小则随机性强,过大则对企业的试验成本太高。
目前不太理解的部分(待填坑,再让我借本统计学好好钻研下555):
多个分组如何构造统计量?
几种分布的应用(Z, T, 卡方)
统计效能?(即1-β)A/B test常见的两种场景:
一个是数值类的计算
如激活量(均值)、点击量、曝光量的计算
一个是比例类的计算
如转换率、点击率的提升等如何确定样本量:
样本量的确定受到α和1-β的影响,为了同时使犯第一类错误和第二类错误的概率减小,需要增大样本量。
数值类样本量计算网址
比值类样本量计算网址
目前看到比较好的讲解:
https://blog.csdn.net/buracag_mc/article/details/74905483除了AB-test我们还可能需要进行AA-test,AA-test是为了检测对照组的选取是否具有代表性,是否选取了不合适的样本。
四、参数估计
- 参数估计的含义?
通过样本的信息去估计总体的参数
a. 介绍下矩估计?
根据大数定律,当样本容量足够大时,样本的k阶原点矩收敛于总体的k阶原点矩,因此可用此来估计总体分布的参数。使用该方法,我们不需要知道总体的分布。
b. 极大似然估计
原理:如果在一次试验中某件事发生了,我们认为这件事发生的概率是足够大的。基于此,我们使用样本观测到的值构造似然函数,似然函数代表着样本观测值出现的概率,既然它发生了,我们认为这件事是个大概率事件,因此使用似然函数的最大值近似其发生的概率,从而求得参数的估计值。
c. 如何评价估计的好坏?
无偏性:估计量是一个随机变量,由于样本的不同其取值也不同。我们希望估计量的均值等于参数的值,意为估计量的取值在参数值附近摆动,称这样是无偏的。
有效性:我们希望估计量的方差尽可能小,即该估计量取值比较稳定
一致性:依据大数定律得出,当样本容量足够大时,估计量的取值收敛于参数值。
b.区间估计
使用置信区间和置信度来估计参数。置信区间是参数的估计范围,置信度是参数落入该区间的概率。和假设检验相似,首先需要构造统计量(根据总体分布、样本容量、已知参数等),然后构造使得统计量落入置信度为1-alpha的置信区间,从而求出参数的置信区间。 - 参数估计与假设检验的不同?
相同:两者都是从样本估计整体特征值的方法。
不同:但是推断估计的角度不同。参数估计在参数未知的情况下,用样本去估计总体的参数值;但是假设检验先假设参数是某个值,然后再用样本的信息去估计该假设是否成立。
五、