spss回归分析结果解释(简单易懂的线性回归分析思路)


线性回归分析是一种研究影响关系的方法,在实际研究里非常常见。不管你有没有系统学习过,对于线性回归,相信多少都有那么一点了解。

即使如此,在实际分析时,还是会碰到很多小细节,让我们苦思冥想,困扰很久,以致拖慢进度,影响效率。

因此本文就一起梳理下回归分析的分析流程,闲话少说,我们开始吧。

spss回归分析结果解释(简单易懂的线性回归分析思路)

回归分析实质上就是研究一个或多个自变量X对一个因变量Y(定量数据)的影响关系情况。

当自变量为1个时,是一元线性回归,又称作简单线性回归;自变量为2个及以上时,称为多元线性回归。在SPSSAU里均是使用【通用方法】里的【线性回归】实现分析的。

spss回归分析结果解释(简单易懂的线性回归分析思路)

SPSSAU线性回归


1. 数据类型

线性回归要求因变量Y(被解释变量)一定是定量数据。如果因变量Y为定类数据,可以用【进阶方法】中的【logit回归】。

spss回归分析结果解释(简单易懂的线性回归分析思路)

2. 变量筛选

对于引入模型的自变量,通常没有个数要求。但从经验上看,不要一次性放入太多自变量。如果同时自变量太多,容易引起共线性问题。建议根据专业知识进行选择,同时样本量不能过少,通常要满足样本个数是自变量的20倍以上。

如果自变量为定类数据,需要对变量进行哑变量处理,可以在SPSSAU的【数据处理】→【生成变量】进行设置。具体设置步骤查看SPSSAU有关哑变量的文章:什么是虚拟变量?怎么设置才正确?

spss回归分析结果解释(简单易懂的线性回归分析思路)

控制变量,可以是定量数据,也可以是定类数据。一般来说更多是定类数据,如:性别,年龄,工作年限等人口统计学变量。通常情况下,不需要处理,可以直接和自变量一起放入X分析框分析即可。

3. 正态性检验

理论上,回归分析的因变量要求需服从正态分布,SPSSAU提供多种检验正态性的方法。

spss回归分析结果解释(简单易懂的线性回归分析思路)

如果出现数据不正态,可以进行对数处理。若数据为问卷数据,建议可跳过正态性检验这一步。原因在于问卷数据属于等级数据,很难保证正态性,且数据本身变化幅度就不大,即使对数处理效果也不明显。

4. 散点图和相关分析

一般来说,回归分析之前需要做相关分析,原因在于相关分析可以先了解是否有关系,回归分析是研究有没有影响关系,有相关关系但并不一定有回归影响关系。当然回归分析之前也可以使用散点图查看数据关系。

5. SPSSAU操作

案例:在线英语学习购买因素研究

①操作步骤


将性别、年龄、月收入水平、产品、促销、渠道、价格、个性化服务、隐私保护共九个变量作为自变量,而将购买意愿作为因变量进行线性回归分析。

勾选“保存残差和预测值”。

spss回归分析结果解释(简单易懂的线性回归分析思路)

②指标说明

spss回归分析结果解释(简单易懂的线性回归分析思路)

spss回归分析结果解释(简单易懂的线性回归分析思路)

非标准化系数(B):非标准化回归系数。回归模型方程中使用的是非标准化系数。


标准化系数(Beta):标准化回归系数。一般可用于比较自变量对Y的影响程度。Beta值越大说明该变量对Y的影响越大


t:t检验的过程值,回归分析中涉及两种检验(t检验和F检验),t检验分别检验每一个X对Y的影响关系,通过t检验说明这个X对Y有显著的影响关系;F检验用于检验模型整体的影响关系,通过F检验,则说明模型中至少有一个X对Y有显著的影响关系。此处的t值,为t检验的过程值,用于计算P值。一般无需关注。

p:t检验所得p值。P值小于0.05即说明,其所对应的X对因变量存在显著性影响关系。


VIF:共线性指标。大于5说明存在共线性问题。


R²:决定系数,模型拟合指标。反应Y的波动有多少比例能被X的波动描述。


调整R²:调整后的决定系数,也是模型拟合指标。当x个数较多是调整R²比R²更为准确。


F检验:通过F检验,说明模型中至少有一个X对Y有显著的影响关系。分析时主要关注后面的P值即可。


D-W:D-W检验值,Durbin-Watson检验,是自相关性的一项检验方法。如果D-W值在2附近(1.7~2.3之间),则说明没有自相关性,模型构建良好。

结果分析


分析时可按照“分析建议”给出的步骤进行。

spss回归分析结果解释(简单易懂的线性回归分析思路)

spss回归分析结果解释(简单易懂的线性回归分析思路)

spss回归分析结果解释(简单易懂的线性回归分析思路)

模型公式显示在智能分析中,可直接使用。

本例中得到的分析结果为:

产品、促销、个性化服务、保护隐私四个变量对购买意愿有正向影响关系。

6. 模型后检验

到这里很多人认为已经分析完了,可以得出结果,实际上还远远没结束。回归模型有很多限制条件,上述步骤里我们只是构建了模型,至于模型质量如何,模型是否满足线性回归的前提条件,都需要在这一步进行确认。

通常需要对线性回归模型检验以下几个方面:

spss回归分析结果解释(简单易懂的线性回归分析思路)

多重共线性

在进行线性回归分析时,容易出现自变量之间彼此相关的现象,我们称这种现象为多重共线性。

当出现严重共线性问题时,会导致分析结果不稳定,甚至出现回归系数的符号与实际情况完全相反的情况,因而需要及时进行处理。

①诊断指标

检验多重共线性,可查看分析结果中的VIF值。

spss回归分析结果解释(简单易懂的线性回归分析思路)

VIF>5说明存在共线性问题,VIF>10说明存在严重的多重共线性问题,模型构建较差,需要进行处理。

②处理方法

spss回归分析结果解释(简单易懂的线性回归分析思路)

(1)增加分析的样本量,是解释共线性问题的一种办法,但在实际操作中较难实现。

(2)对自变量进行相关分析,找出相关系数高的变量,手工移出后再做线性回归分析。

(3)采用逐步回归法,让系统自动筛选出最优分析项,剔除引起多重共线性的变量。

(4)如果不想涉及核心自变量,不希望剔除,可使用岭回归分析。

残差独立性(自相关)

残差独立性是线性回归方程的基本前提之一。如果回归方程存在自相关,说明可能存在与因变量相关的因素没有引入回归方程,整体模型构建较差。

①诊断指标

D-W值用于判断自相关性,判断标准是2附近即可(1.8~2.2之间),如果达标说明没有自相关性,即样本之间并没有干扰关系。

spss回归分析结果解释(简单易懂的线性回归分析思路)

②处理方法

问卷数据基本不会出现自相关问题,如有自相关问题时建议查看因变量Y的数据。

残差正态性


①诊断指标

残差正态性也是线性回归方程的基本前提之一。在分析时可保存残差项,然后使用“正态图”直观检测残差正态性情况。

spss回归分析结果解释(简单易懂的线性回归分析思路)

spss回归分析结果解释(简单易懂的线性回归分析思路)

  • regressionXXXX_residual代表残差值

  • regressionXXXX_prediction 代表预测值

spss回归分析结果解释(简单易懂的线性回归分析思路)

残差正态图


如果残差直观上满足正态性,说明模型构建较好,反之说明模型构建较差。如果残差正态性非常糟糕,建议重新构建模型,比如对Y取对数后再次构建模型等。

残差方差齐性(异方差)

①检验方法

方差齐性可以通过散点图来考察,在分析时可保存残差项,以模型自变量X或因变量Y为横坐标,残差值为纵坐标,作散点图。

spss回归分析结果解释(简单易懂的线性回归分析思路)

如果随着预测值的增加,残差值保持相同的离散程度,则说明方差齐。

如果残差值随着预测值的增加而变宽或变窄,则说明有异方差问题。

②异方差的处理方法

处理异方差问题有三种办法,分别是数据处理、稳健标准误回归、FGLS回归(可行广义最小二乘法回归)。

问卷研究里很少出现异方差问题,如果遇到异方差问题建议查看帮助手册。

异常值

除此之外,如果回归分析出现各类异常,可能存在异常值应该回归模型。在散点图里可观察到是否有异常值存在。

以上就是线性回归分析的分析流程梳理,但在实际研究过程中,理论与实际操作会有较大“距离”,具体还需要结合实际研究考察。

点赞(0) 打赏

相关推荐

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部