多元回归是简单回归的推广,包括一个因变量和多个自变量。
hierarchical regression(层次回归分析).我们知道回归分析中最常见的就是进入(enter)法,是将所有的预测变量全部放入independents,不涉及变量的筛选,为默认的选项。而前进法或者向后法是按照一定的规则逐步加入变量,由系统自动进行,比如预测变量有4个abcd,首先分别拟合4个变量的4个简单模型,假如均没有显著,则程序终止。
假如均有显著,然后将其中P值最小的变量(假如为a)首先纳入到模型,分别有3个模型,a+b,a+c,a+d;假如bcd均没有显著,则程序终止。
假如bcd有统计学意义,则选择具有统计学意义p值最小的变量进入模型(假如为b)则分别有2个模型,a+b+c,a+b+d.如此反复进行,直至模型外的自变量均无统计学意义,模型内的自变量均有统计学意义
stepwise(逐步进入法)与前进法的主要区别是,在模型中假如变量之后不仅对新加入的变量进行检验,同时也对新模型中的原始变量进行检验,例如上例,a+b,a+c,a+d同时也对a进行检验,如果无统计学意义,也将a剔除出模型。
那么层次回归其实是建立在之前的回归分析方法之上的,与上述的统计方法不是并列关系。层次回归可以使用所有的回归方法,只是相当于对每层的变量进行单独的分析,找出差异性。其基本思想是将感兴趣的变量放在最后一步进入模型,以考察在排除了其他变量的贡献的情况下,该变量对回归方程的贡献。如果变量仍然有明显的贡献,那么我们可以做出该变量确实具有其他变量所不能替代的独特作用的结论。这种方法主要用于,当自变量之间有较高的相关,其中否一个自变量的独特贡献难以确定的情况。
hierarchical regression(层次回归分析).我们知道回归分析中最常见的就是进入(enter)法,是将所有的预测变量全部放入independents,不涉及变量的筛选,为默认的选项。而前进法或者向后法是按照一定的规则逐步加入变量,由系统自动进行,比如预测变量有4个abcd,首先分别拟合4个变量的4个简单模型,假如均没有显著,则程序终止。
调节效应是交互效应的一种,是有因果指向的交互效应,而单纯的交互效应可以互为因果关系;调节变量一般不受自变量和因变量影响,但是可以影响自变量和因变量;调节变量一般不能作为中介变量,在特殊情况下,调节变量也可以作为中介变量。试一下调节效应回归方程。