找到
11
篇与
SPSS
相关的结果
-
【SPSS】回归分析---logistics回归-有序逻辑回归 #BV# 若视频不清晰请点此观看原视频 数据要求: 因变量: 应为有序多分类变量,即类别之间具有明确的顺序关系,但类别之间的间隔不一定相等。例如,教育水平(小学、初中、高中、大学)或满意度评分(非常不满意、不满意、一般、满意、非常满意)。 自变量: 自变量可以是连续变量(如年龄、收入)或分类变量(如性别、地区)。对于分类变量,建议使用数值代码表示,以确保顺序关系的正确性。 操作步骤: 在菜单栏中选择“分析” > “回归” > “有序...”以打开有序逻辑回归分析对话框。 设置变量: 因变量(Dependent): 将有序的多分类因变量拖入此框。 因子(Factors): 将分类自变量拖入此框。 协变量(Covariates): 将连续自变量拖入此框。 点击“统计”按钮,勾选“平行线检验”,以检验模型的平行性假设。 点击“继续”,然后点击“确定”以运行分析。 结果解读: 平行线检验: 在平行性假设检验部分查看结果。如果P值大于0.05,表示平行性假设成立,您可以继续进行后续分析。如果P值小于0.05,说明平行性假设不成立,建议使用其他类型的逻辑回归分析(如多元逻辑回归或二元逻辑回归)。 模型拟合信息: 查看模型的拟合优度指标,如-2对数似然值和似然比检验的P值。如果P值小于0.05,说明模型拟合良好,且拟合的结果具有统计学意义。 参数估计: 查看各自变量的回归系数、标准误、Wald统计量和P值。P值小于0.05的自变量在统计上具有显著性,可以认为这些自变量对因变量有较强的影响。 伪R方: 伪R方用于评估模型的拟合效果,衡量模型预测与实际观测数据之间的匹配度。常用的伪R方方法有三种: 麦克法登伪R方:专为离散选择模型设计,广泛应用于经济学和社会科学研究,建议优先分析此项。 内戈尔科伪R方:对麦克法登伪R方进行了调整,能够提供更直观的拟合度评估。 考克斯-斯奈尔伪R方:另一种常用的伪R方方法。 一般来说,伪R方值越高,模型拟合效果越好。 回归方程 有序逻辑回归的回归方程如下: $$ P_k = \frac{e^{(\alpha_k + \beta_1 X_1 + \beta_2 X_2 + \cdots + \beta_k X_k)}}{\sum_{i=1}^K e^{(\alpha_i + \beta_1 X_1 + \beta_2 X_2 + \cdots + \beta_k X_k)}} $$ $$ \begin{array} 该方程计算的是每个类别的概率,其中P_k表示因变量属于类别k的概率, \\ \alpha_k 是常数项, \\ \beta_1, \beta_2, \dots, \beta_k 各自变量的回归系数,\\ X_1, X_2, \dots, X_k 是自变量。 \end{array} $$ 结果解释: 模型拟合信息: 通过查看模型的显著性值(P值),如果显著性值小于0.05,说明模型拟合效果显著,能够有效解释因变量与自变量之间的关系。 伪R方: 伪R方用于衡量模型拟合效果,值越高表示模型拟合程度越好。建议首先分析麦克法登伪R方,其次是内戈尔科和考克斯-斯奈尔的伪R方。 平行线检验: 如果平行线检验的P值大于0.05,表示平行性假设成立,可以继续进行有序逻辑回归分析。如果P值小于0.05,说明平行性假设不成立,应该考虑使用其他类型的回归分析(如多元或二元逻辑回归)。 通过对这些分析结果的解读,可以帮助你更好地理解有序逻辑回归模型的应用,识别哪些自变量对因变量的影响显著,并评估模型的拟合效果。如果有更多问题或需要进一步的解释,欢迎继续咨询!
-
【SPSS】回归分析---logistics回归-多元逻辑回归 #BV# 若视频不清晰请点此观看原视频 步骤 选择分析方法:点击菜单栏中的 分析 -> 回归 -> 多项Logistic...,打开多元逻辑回归对话框。 设置变量: 因变量(Dependent):将多分类因变量拖入此框。 因子(Factors):将分类自变量拖入此框。 协变量(Covariates):将连续自变量拖入此框。 设置参考类别: 点击 参考类别 按钮,选择基准类别。 回归方程 在多项Logistic回归分析中,我们使用对数概率(log odds)来表示每个类别的可能性。 对数概率: $$ \ln \left( \frac{P_1}{P_3} \right) = B_0 + B_1 X_1 + B_2 X_2 + \cdots + B_n X_n $$ $$ \ln \left( \frac{P_2}{P_3} \right) = B_0 + B_1 X_1 + B_2 X_2 + \cdots + B_n X_n $$ 概率: $$ a = \left( \frac{P_1}{P_3} \right) = e^{B_0 + B_1 X_1 + B_2 X_2 + \cdots + B_n X_n} $$ $$ b = \left( \frac{P_2}{P_3} \right) = e^{B_0 + B_1 X_1 + B_2 X_2 + \cdots + B_n X_n} $$ $$ P_1 = \frac{a}{a + b + 1}, \quad P_2 = \frac{b}{a + b + 1}, \quad P_3 = 1 - P_1 - P_2 = \frac{1}{a + b + 1} $$ 推导过程: 已知条件: $$ a = \frac{P_1}{P_3}, \quad b = \frac{P_2}{P_3} $$ 步骤 1:推导出 (P_1) 和 (P_2) 从给定的公式: $$ a = \frac{P_1}{P_3} \quad \Rightarrow \quad P_1 = a \cdot P_3 $$ $$ b = \frac{P_2}{P_3} \quad \Rightarrow \quad P_2 = b \cdot P_3 $$ 步骤 2:利用 (P_1 + P_2 + P_3 = 1) 根据概率的总和公式,我们有: $$ P_1 + P_2 + P_3 = 1 $$ 将 (P_1) 和 (P_2) 代入上式: $$ a \cdot P_3 + b \cdot P_3 + P_3 = 1 $$ 步骤 3:提取公共因子 (P_3) 将 (P_3) 提取出来: $$ P_3 (a + b + 1) = 1 $$ 步骤 4:解出 (P_3) 解出 (P_3): $$ P_3 = \frac{1}{a + b + 1} $$ 步骤 5:求出 (P_1) 和 (P_2) 将 (P_3 = \frac{1}{a + b + 1}) 代入之前推导的 (P_1) 和 (P_2): $$ P_1 = a \cdot \frac{1}{a + b + 1} = \frac{a}{a + b + 1} $$ $$ P_2 = b \cdot \frac{1}{a + b + 1} = \frac{b}{a + b + 1} $$ 最终结果: $$ P_1 = \frac{a}{a + b + 1}, \quad P_2 = \frac{b}{a + b + 1}, \quad P_3 = \frac{1}{a + b + 1} $$ 解释 表格: 模型拟合信息:如果显著性值(p值)小于0.05,意味着模型在统计上是显著的,能够有效地反映自变量与因变量之间的关系。 伪R方: 伪R方用于评估模型的拟合效果,它是衡量模型预测与实际观测数据之间匹配度的指标。常用的伪R方有以下几种: 6. 麦克法登伪R方:适用于离散选择模型,广泛应用于经济学和社会科学的研究,推荐优先使用。 7. 内戈尔科伪R方:对麦克法登伪R方的调整,使得模型拟合度的范围更加直观。 8. 考克斯-斯奈尔伪R方:另一种常见的伪R方估算方法。 这些伪R方的值越高,说明模型的拟合效果越好。 参数估算值: 回归方程中的系数(B值)表示自变量对因变量的影响强度与方向,Exp(B)则表示对应变量对因变量的几率比。通过这些参数可以更直观地了解每个变量对模型预测的贡献。 小结: 这篇文章详细介绍了多项Logistic回归的步骤、回归方程的推导过程,以及如何解释回归结果。通过理解模型的拟合信息、伪R方以及参数估算值,读者可以更好地理解回归分析的意义和应用。
-
【SPSS】回归分析---logistics回归-二元逻辑回归 #BV# 若视频不清晰请点此观看原视频 步骤 卡方检验:首先可以进行卡方检验,以分析各变量之间是否具有显著关系。 选择分析方法:点击菜单栏中的 分析 -> 回归 -> 二元Logistic...,打开二元逻辑回归对话框。 设置变量: 因变量(Dependent):将二分类因变量拖入此框。 协变量(Covariates):将自变量拖入此框。 设置哑变量(分类变量)(如有): 点击 分类 按钮,将分类自变量添加到 分类协变量 框中。 在 参考类别 中选择“第一个”或“最后一个”作为参考类别,然后点击 变化量。 设置选项: 点击 选项 按钮,勾选霍斯默-莱梅肖拟合优度(H)、Exp(B)的置信区间:95%,这些选项有助于评估模型的拟合情况。 解释 模型摘要 模型摘要包括多个用于估计模型拟合优度的指标,值越大表示拟合效果越好。考克斯-斯奈尔 R 方值提供了一个估计模型拟合优度的方法,然而,由于其上限通常小于 1,因此内戈尔科 R 方值对其进行了调整,使得范围更加直观(从 0 到 1)。这一调整使得 R 方的解释更为简洁明了。 霍斯默-莱梅肖检验 显著性> 0.05:此次检验结果显示数据拟合状况良好,表明模型能够真实有效地反映原始变量之间的关系。也就是说,模型的假设并未被数据拒绝,因此可以认为模型结果具有较高的可信度。 分类表 分类表显示了模型的预测准确性,通常通过“总体百分比”来评估,代表模型对数据分类的准确性。例如,如果总体百分比高,说明该模型在预测时表现较好。 方程中的变量 在回归分析中,显著性水平(p 值)是衡量变量对因变量影响的一个重要指标。如果某个自变量的 p 值大于 0.05,意味着该变量在统计上不显著,可能对因变量没有显著影响,这时可以考虑将该变量从模型中移除。 Exp(B),这个值反映了自变量对因变量的影响大小和方向。 但是构建回归方程的话,还是以B为准。 回归方程 在回归分析中,常用的回归方程有两种形式:标准对数几率模型和几率模型。 标准对数几率: $$ \ln \left( \frac{p}{1 - p} \right) = \beta_0 + \beta_1 \cdot X_1 + \beta_2 \cdot X_2 + \dots + \beta_n \cdot X_n $$ 几率模型: $$ \frac{p_i}{1 - p_i} = e^{\beta_0 + \beta_1 X_1 + \beta_2 X_2 + \cdots + \beta_n X_n} $$ 示例: 假设回归方程如下: $$ \begin{array}{l} \ln\left( \frac{p}{1 - p} \right) = 0.860 - 0.121 \cdot \text{女生} - 0.486 \cdot \text{年级1} - 0.184 \cdot \text{年级2} \\ - 0.446 \cdot \text{年级3} + 0.043 \cdot \text{年级4} + 21.053 \cdot \text{年级5} - 0.309 \cdot \text{享乐动机} \\ + 0.305 \cdot \text{价格价值} + 0.458 \cdot \text{个体创新} - 0.612 \cdot \text{使用意愿} \end{array} $$ $$ \frac{p}{1 - p} = $$ $$ \begin{array}{l} e^{0.860 - 0.121 \cdot \text{性别} - 0.486 \cdot \text{年级1} - 0.184 \cdot \text{年级2} \\ - 0.446 \cdot \text{年级3} + 0.043 \cdot \text{年级4} + 21.053 \cdot \text{年级5} - 0.309 \cdot \text{享乐动机} \\ + 0.305 \cdot \text{价格价值} + 0.458 \cdot \text{个体创新} - 0.612 \cdot \text{使用意愿}} \end{array} $$ 结果解读 1. 表格解析: R 方:高 R 方值表明模型拟合较好,反映了自变量对因变量的解释力。 霍斯默-莱梅肖检验:若显著性值大于 0.05,表示模型的拟合优度较好,数据与模型的拟合关系真实可信。 回归方程:模型中的 Exp(B)值可以帮助我们判断每个自变量对因变量的影响强度及方向。如果 Exp(B)大于 1,则说明该变量正向影响因变量;如果小于 1,则为负向影响。 2. 回归方程解释: 回归方程提供了自变量与因变量之间的定量关系,进一步通过 Exp(B)判断每个变量对预测结果的具体影响。例如,性别、年级和享乐动机等变量的系数和 Exp(B)值反映了这些因素在预测因变量时的重要性和作用方向。
-
回归分析---三种逻辑回归之间的差异 二元逻辑回归(Binary Logistic Regression) 二元逻辑回归用于预测因变量是二分类的情况,即因变量只有两个可能的类别(例如:0和1、成功和失败、是和否等)。该模型的基本思想是根据自变量的线性组合来估算某一类别的概率,通常使用Sigmoid函数(也叫逻辑函数)将预测值映射到0和1之间,从而得到该事件发生的概率。 因变量:二分类变量(如:0/1,yes/no等) 自变量:可以是定量(连续变量)或定性(分类变量)自变量 这种模型广泛应用于医疗、金融、市场营销等领域,尤其适用于需要判断某一事件是否发生(例如,客户是否购买、疾病是否发生等)的情境。 多元逻辑回归(Multinomial Logistic Regression) 多元逻辑回归用于处理因变量为多类别的情形,即因变量包含三个或更多的类别,而且这些类别之间没有自然的顺序。例如,预测某人喜欢的颜色是红色、蓝色还是绿色,或者某人选择的交通方式是公交车、自行车还是步行。多元逻辑回归将多个二元逻辑回归模型扩展到多类情况,从而在多个类别之间进行分类。 因变量:多分类变量(例如:红、蓝、绿等不同类别) 自变量:可以是定量(连续变量)或定性(分类变量)的自变量 这种模型适用于类别间没有顺序关系的情况,通常用于市场研究、消费者行为分析等领域。 有序逻辑回归(Ordered Logistic Regression) 有序逻辑回归用于处理因变量是有序类别的情况,即因变量包含多个有序类别,且这些类别之间具有自然的顺序。例如,预测一个人对某个产品的满意度评分,可以是非常不满意、不满意、中立、满意、非常满意等等级。该模型假设类别之间有一个顺序关系,并且通过累积概率模型来预测因变量的类别。 因变量:有序分类变量(如:1、2、3、4等有顺序的类别)(例如,满意度量表) 自变量:可以是定量(连续变量)或定性(分类变量)的自变量 这种模型广泛应用于市场调查、消费者满意度研究等领域,尤其适用于需要对某些问题进行等级评定的场景。 补充说明: 在实际应用中,量表常常用于表示有序类别变量,特别是在有序逻辑回归中。例如,李克特量表(Likert Scale)是一个非常典型的有序量表,它通常包括5个等级(如:非常不同意、不同意、中立、同意、非常同意),这些等级之间有清晰的顺序关系。通常被认为是有序类别变量。
-
【SPSS】回归分析---线性回归 #BV# quality:1080; 若视频不清晰请点此观看原视频 线性回归与逻辑回归的区别 线性回归和逻辑回归都是研究因变量的影响因素,但它们应用于不同类型的因变量。 线性回归:因变量是连续型的(例如量表题可以看作连续型数据)。如果自变量有多个,就称为多元线性回归,若只有一个自变量,则是简单线性回归。 逻辑回归:因变量是分组型的,例如性别、年级等分类变量(对于二分类变量使用二元逻辑回归,对于多分类变量使用多元逻辑回归)。 步骤 对量表维度计算平均值: 转化 > 计算变量 目标变量输入维度名称,数字表达式输入mean(维度下第一题 to 维度下最后一题) 例如(题目名称不用手动输入,直接点击左侧对应标签即可): 对所有维度执行相同操作。 选择回归分析:在菜单栏中,依次点击“分析” > “回归” > “线性”。 设置变量:在弹出的对话框中,将因变量拖入“因变量”框,将自变量拖入“自变量”框。 选择统计量:点击“统计量”按钮,勾选“共线性诊断”和“德宾-沃森(U)” 生成图表:在“图”选项中输入Y:\*ZRESID; X:\*ZPRED,并勾选直方图(H)和正态概率图(R)。 结果解读 模型摘要 R方: 是自变量(预测变量)对因变量(被预测变量)方差的解释比例。 举例来说,若R方=0.799,意味着预测变量可以解释因变量变化的79.9%。通常,R方大于50%就说明模型具备较好的解释力。 调整后R方: 对R方的修正,考虑了自变量数量的影响。增加自变量时,R方可能增大,即使新增的变量并不具有预测能力。调整后R方通过对不显著变量的惩罚,使得模型拟合度评估更为准确。 德宾-沃森:又称“D-W值”。 用于检测模型残差的自相关性。值接近2表示残差间没有显著的自相关性。若值小于2,表示正自相关,若大于2,表示负自相关。 举个例子,德宾-沃森值为1.972,接近2,说明模型残差之间几乎没有显著自相关性,样本独立性基本通过。 ANOVA 显著性p值小于0.05时,表明至少有一个自变量对因变量有显著影响,意味着模型具有统计学意义。 系数 显著性<0.05:表示该自变量对因变量有显著影响。若某个变量的显著性大于0.05,则应考虑去除该变量并重新进行回归分析。 VIF<5(有时标准为<10):表示不存在多重共线性,结果准确可靠。如果某个变量的VIF值超过此范围,则需考虑去除该变量并重新检验。 回归方程:最终的回归方程为: 因变量 = ∑B × 自变量 B为未标准化的回归系数,加上常量; beta(标准化回归系数)不包括常量。 图 直方图:理想的分布呈现“低-高-低”的钟形分布。 P-P图:数据点应沿对角线分布,表明数据与正态分布的一致性。 word解释 R 方 调整后 R 方 德宾-沃森 P 0.795 0.792 2.018 <0.001 a 预测变量:(常量), 个体创新, 促进因素, 价格价值, 社会影响 b 因变量:使用意愿 根据表格,调整后的R方为0.792,表示预测变量能够解释使用意愿变化的79.2%。德宾-沃森系数为2.018,接近2,表明模型残差之间几乎没有自相关性,因此数据之间具有独立性。模型的P值小于0.05,意味着模型显著,且自变量能够解释因变量的变化。 维度 回归系数 显著性 容差 VIF 促进因素 0.217 <0.001 0.253 3.96 社会影响 0.115 0.033 0.279 3.583 价格价值 0.416 <0.001 0.355 2.82 个体创新 0.24 <0.001 0.366 2.736 a 因变量:使用意愿 回归方程为: 使用意愿 = 0.217 * 促进因素 + 0.115 * 社会影响 + 0.416 * 价格价值 + 0.24 * 个体创新 从表格可以看出,所有自变量的显著性均小于0.05,且VIF均小于5,说明不存在多重共线性,模型有效且自变量可以充分解释因变量。