在多元回归模型参数b求解的过程中,要求各自变量互相独立,只有如此,才能求出b的惟一解,如果自变量之间有线性相关(不包括非线性相关),就会互相削弱各自的边际影响,使回归系数变小,出现回归方程整体显著而各个自变量不显著的现象,叫做多重共线性。
这种线性相关性的影响会使回归系数不能很好反映自变量的独立作用;使新增自变量的边际作用下降;使回归系数估计的置信区间变宽。
怎么办呢?
你可以先通过以下方式来对多重共线性的检验
(1)方程确定系数很高,且与各自变量的相关系数也很高,但自变量的回归系数均不显著。
(2)方程的确定系数很高,但每一个自变量的偏确定系数很小。
(3)某一个自变量可被其他自变量线性表出;.
(4)分别构造不含某一自变量的K-1个自变量的回归模型,将它与包含所有自变量的回归模型比较,发现二者的确定系数很接近。
还可以通过以下方法补救多重共线影响
(1)去掉与y相关程度较低的,而又与其他自变量高度相关的变量;
(2)去掉可以被其他自变量线性表出的变量;
(3)增加样本规模;
(4)采用新的样本数据。