2019/3/24-星期日-阴晴天
好多天没有看这本spss高级教程了,今天大致看了一下回归模型章节的第一部分。做一下相关的记录。
一、相关概念
多重线性回归进行统计分析时需要满足以下条件:
①自变量与因变量之间存在线性关系,这个可以通过绘制“散点矩阵”反映。
②各观测间相互独立,即任意两个观测残差的协方差为0;
③残差服从正态分布N(0,)。其方差= = var()反映了回归模型的精度,越小,所得到的回归模型预测y的精确度越高。
④ 的大小不随所有变量取值水平的变化而变化。即方差齐次性。
顺便提一下总平方和、回归平方和、残差平方和的区别。
二、实例问题
某专门面向年轻人制作肖像的公司计划在国内开设几家分店,收集了目前已开设分店的销售数据(y,万元)及分店所在城市的16岁一下人数(x1,万人),人均可支配收入(x2,元)。数据reg.sav。链接:https://pan.baidu.com/s/12Vk-7HAyeqNbtMMfoDG0Rw 提取码:o7hs。
1、对数据的初步分析,问题中可知有两个自变量x1,x2以及一个反应变量y。所以问题是如何同时考虑x1,x2多个因素对同一结果y的影响。
从结果给出了回归模型的常数项、16岁一下年轻人人数、人均可支配收入的偏回归系数,分别为-6.886、1.455、0.009。
回归模型
回归模型的假设检验
首先要考察模型中的自变量与因变量之间时是否存在线性关系,也就是检验各自变量的回归系数是否均为0,此处采用方差分析的基本思想进行判断。
建立假设:
反应变量y的总变异为总平方和,表示为 表示反应变量所有的变异。它由下面两部分组成。
①回归平方和,SSR表示反应变量的变异中由回归模型中所包含的p个自变量所能解释的部分。
②误差平方和SSE,表示反因变量的变异中没有被回归模型中所包含的变量解释部分。
上图输出的是对模型中所有自变量的回归系数等于0的F检验结果。F=99.103、P值<0.01,说明至少有一个自变量的回归系数不为0,所建立的回归模型是有统计学意义的。
偏回归系数的假设检验
在得到整个回归模型有统计学意义以后,还需要具体检验某个自变量与反应变量之间是否存在线性关系,就是对其偏回归系数是否等于0进行统计学检验。通常可以用t检验来回答这个问题。
t=()
是第i个自变量的偏回归系数,是其标准误。
下图可以看出x1、x2的偏回归系数是否等于0的t检验结果,t值分别等于6.868(=1.455/0.212)和2.305(=0.009/0.004),P值<0.01、P=0.33。按 水平,认为、 全不为0。
标准化偏回归系数
标准化回归系数一般出自对模型中自变量()对y的贡献大小进行比较,以消除原始变量单位不同及量纲不同的影响。而实际上,计算标准偏回归系数还可以减少在拟合回归模型计算求解时的截断误差,从而提高模型的拟合精度。首先对原始变量按一下公式进行标准化。
从图中可以看出16岁一下年轻人人数的标准化偏回归系数为0.748,支配收入的标准化偏回归系数为0.251,年轻人人数对销售收入的影响大。
注意偏回归系数大的自变量其标准化回归系数可能大,也有可能小。
衡量多元线性回归模型优劣的标准
当供建立回归模型的自变量有p个时,仅考虑各因素的主效应,可以建立个模型。如何来衡量这些模型的好坏?常用有一下标准:
1、复利相关系数R
表示模型中所有自变量与反应变量之间线性回归的密切程度大小,实际上它是与其估计值的简单相关系数。例子中R=0.957;但是需要注意的是多元相关系数R值多大才算好,没有一个统一的标准。
2、决定系数
模型的决定系数等于复相关系数的平方。它表示反应变量y的总变异中可由回归模型中自变量解释的部分所占的比例,是衡量所建立模型效果好坏的指标之一。
3、校正的决定系数
由于用评价拟合模型的好坏具有一定的局限性,即使是向模型中增加的变量没有统计学意义,值仍会增大。因此需要校正,从而形成校正的决定系数:
4、剩余标准差
Std它等于误差均方MSE的算术平方根,就是残差之标准差,其大小反应了用建立的模型预测因变量时的精度。剩余标准差越小,建立的模型效果就越好。