全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 数据分析与数据挖掘
20450 0
2020-10-22
普通最小二乘(OLS)线性回归的7个经典假设
普通最小二乘 (OLS)是线性模型最常用的估计方法,这是有充分理由的。只要您的模型满足线性 回归的OLS假设,就可以轻松获得所需的最佳 估计值。
回归 是一项功能强大的分析,可以同时分析多个变量以回答复杂的研究问题。但是,如果您不满足OLS假设,则可能无法信任结果。
在本文中,我将介绍OLS线性回归假设,为何如此重要,并帮助您确定模型是否满足假设。
OLS估计什么,什么是好估计?
首先,一些背景。
回归分析就像其他推论方法一样。我们的目标是从总体中抽取一个随机样本,并用它来估算该人群的属性。
在回归分析中,回归方程中的系数是实际总体参数的估计值。我们希望这些系数估算值是最好的估算值!
假设您要求一个估算,例如您正在考虑的服务成本。您将如何定义一个合理的估计?
估算应该趋于正确。它们不应系统地过高或过低。换句话说,它们应该平均无偏或正确。
认识到估计几乎永远不会完全正确,因此您希望将估计值与实际值之间的差异最小化。大的差异是不好的!
这两个属性正是我们进行系数估算所需要的!
当您的线性回归模型满足OLS假设时,该过程将生成倾向于相对接近真实总体值(最小方差)的无偏系数估计。实际上,高斯-马尔可夫定理指出,假设成立时,OLS产生的估计要好于所有其他线性模型估计方法的估计。
有关此定理对OLS估计的含义的更多信息,请阅读我的文章:Gauss-Markov定理和BLUE OLS系数估计。
七个经典OLS假设
像许多统计分析一样, 普通最小二乘 (OLS)回归也有基础假设。当这些线性回归的经典假设为真时,普通最小二乘法会产生最佳估计。但是,如果其中一些假设不正确,则可能需要采用补救措施或使用其他估计方法来改善结果。
这些假设中有许多描述了误差项的性质。不幸的是,错误项是我们永远不会知道的总体值。相反,我们将使用下一个最好的东西- 残差。 残差 是每个观察值的 样本 误差估计值。
残差=观测值– 拟合值
在检查OLS假设时,评估残差至关重要!
线性回归有七个经典的OLS假设。为了产生最佳估计值,前六个是必需的。虽然估算的质量并不取决于第七个假设,但分析师经常出于我将介绍的其他重要原因对其进行评估。以下是这些假设:
回归模型的系数和误差项是线性的
误差项的总体平均值为零
所有自变量与误差项均不相关
错误项的观察结果彼此不相关
误差项具有恒定的方差(无异方差)
没有自变量是其他解释变量的理想线性函数
错误项是正态分布的(可选)
1
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群