1、一元线性回归模型的总体回归模型构造性数据集的特征、对应散点图和总体回归直线的图例,理解可以样本推断总体的理念
一元线性回归模型就是中学的y = kx + b
2、高斯经典假定的六条假定及其含义(Yi:被解释变量(因变量)、Xi:解释变量(自变量)、βi:回归系数、ui:残差项)
回归模型对参数而言是线性的:解释变量是一次的(截距的解释变量就是X的零次方),解释变量的系数也是一次的。
解释变量X是外生变量:解释变量和残差项不相关,就是不能做出解释变量和残差的回归方程。
模型设定正确:没欠拟合和过拟合现象。
零均值:E(ui | Xi) = 0
同方差:Var(ui | Xi) = E[ui - E(ui |Xi)]² = E(ui²) = σ²
无自相关性:Cov(ui | uj) = 0,后一期残差与前一期残差没有相关性。
3、OLS估计量的计算思路
最小二乘法就是通过使残差平方和最小,即解释变量减去估计量的平方最小,拟合出一条直线
(详细的理论部分各种计量经济学教材写的都很好,可以看书上的,才不是我不想打字了
.^◡^.)
4、估计量的统计性质:线性性、无偏性、有效性;一致性(相合性)、渐进无偏性、渐进有效性
估计量的有限性
线性性:估计量是随机样本数据的线性函数
无偏性:估计量的期望=总体的真实值
有效性: 估计量βi在所有线性无偏估计量中具有最小方差
大样本性质(渐进性质)
渐进无偏性:样本足够大时,估计量的期望=总体的真实值
一致性:样本足够大时,估计量依概率收敛于总体的真实值
渐近有效性:样本足够大时,估计量βi在所有一致估计量中具有最小的渐进方差
5、高斯-马尔科夫定理:线性回归模型,满足经典假定,其OLS估计量是BLUE的
高斯基本假定+回归模型的解释变量之间不存在完全的多重共线性就是BLUE,多重共线性会导致解释变量的相关性强
6、理解TSS=ESS+RSS;拟合优度R2的定义
总平方和TSS:被解释变量的方差
回归平方和ESS:样本回归直线的拟合值与实际观测值的平均值之差的平方
残差平方和RSS:实际观测值与样本回归直线的拟合值之差的平方
判定系数R² = ESS/TSS = 1 - RSS/TSS,反应拟合效果的,越接近1,模型拟合效果越好(请注意不要以最大的R²作为模型选择的唯一标准)
7、从误差项U的正态分布,推出因变量Y服从正态分布,推出参数估计量服从正态分布的过程
略
8、统计三大分布:t分布、F分布、卡方分布的构造原理;单参数正态总体的均值检验、方差检验,双正态总体的均值相等检验和方差齐性检验,弄清楚检验统计量的构造原理和检验思想
详情看书,这里只说一下用R语言的lm函数进行OLS回归估计怎么看它的t检验、F检验结果
一般看p值,它们的p值是在5%显著性水平下,只要p值<0.05,显著性就强(卡方检验也是怎么看的,当然,查表也很好)。t检验用于检验变量的显著性,F检验用于模型整体的显著性检验。
下面举个例子,这是一个OLS估计出来的模型
比如上述线性回归模型,在Coefficients:那里,第一列数据依次表示截距、各解释变量系数,第二列是标准误(区别与标准差,标准差的平方就是方差),第三列是t值。t检验的p值在5%显著性水平下,均小于0.05,解释变量显著性才强,图中的都不显著,这个模型就没什么用;它的R² = 0.7,模型整体解释效果较强;F检验的p值在5%显著性水平下,小于0.05,模型整体显著性强。
9、一元线性回归模型的单参数t检验的基本思想及其构造推导原理
t值 = 估计值/标准差
10、蒙特卡洛模拟的基本思想原理
这是用来更好的理解OLS估计量统计性质的,通过比较OLS估计量与其他线性无偏估计量,我们可以看到OLS估计量服从正态分布,且OLS估计量的方差最小。