有限信息极大似然估计 LIML---Limited Information Maximum Likelihood and K-class
1、一般模型
工具变量法是理论上最完善,也最受信赖的一类经典回归方法。工具变量发主要包括三种:TSLS、GMM以及LIMI。它的发明先于TSLS,但是自从后者诞生之后,即受到研究者的一致追捧,LIMI遂如敝履般被弃之一旁。直到近年来弱工具问题被挖掘出来,而人们发现LIMI在处理弱工具问题上具有另外两种方法无可替代的效用,才从蒙尘之中闪耀光芒。
从理论上讲,工具变量必须满足两个条件:一是正交性,工具变量必须与模型中的扰动项正交;二是相关性,工具变量必须与内生解释变量高度相关,否则会出现弱工具变量问题,导致估计量的不一致,而工具变量估计的有限样本表现出对工具变量的选取非常敏感。
顾名思义,它也是采取极大似然估计法对参数进行估计,它只不过是采取了一种与其他回归方法不同的估计式。
2、K-class
它可以算是IV(即工具变量法)的第四种形式,并且是一种一般模式,在它的估计式中含有一个参数k。当k=0时,K-class转变为最常见的OLS;当k=1时,它转化为TSLS;当k= λ时,它又能转化为LIML。由此可见,它的适用性非常强。Eviews中提供了k的设置输入栏,当输入栏处于空白时,则为LIML,这也是Eviews的默认设置。
值得注意的是在LIMI模型设定对话框中的option选项卡的系数协方差矩阵选项里有以下几种选择:IV-based、K-class、Bekker以及Hansen,Hausman and Newey。Eviews的默认设置是K-class,但是比较而言,Bekker对于弱工具更为稳健,而H-H-N则能够修正非正态随机干扰项。
关于工具变量的设置与TSLS和GMM一样,前已述及。
广义线性模型 GLM----Generalized Linear Models
GLM是OLS的扩展,在广义线性模式中,假设每个被解释变量的观测值来自某个指数族分布。该分布的平均数μ可由与该点独立的X解释:E(y)=μ=g-1(Xβ),Var(y)=V(μ)=V(g-1(Xβ))。这时指数族分布的特点。g()在这里称为链结函数(link function),g-1()则表示逆函数。这个公式的推导非常简单:Xβ得到估计结果(根据选定的指数族分布类型)后可以计算出来,而这个计算结果等于被解释变量条件均值的某种函数。g(E(y))=Xβ→E(y)=μ=g-1(Xβ),令η=Xβ,则有E(y)=μ=g-1(η)。未知参数可有极大似然估计法、拟极大似然估计法等进行估计。
由此可见GLM模型主要有以下单个部分:
1、来自指数族的分布函数F;
2、线性预算子:η=Xβ;
3、链结函数: E(y)=μ=g-1(η)
链结函数的选择可视情形而定。通常只要符合链结函数的值域有包含分布期望值的条件即可。在Eviews中要做的就是选定分布函数类型,链结函数会在前者的基础上由Eviews自动选择。
协整回归 COINTREG----Cointgrating Regression
协整回归是针对时间序列数据的非平稳性问题的。一个平稳的时间序列可以看作一条围绕其均值上下波动的曲线。平稳性分为严格平稳和弱平稳,严格平稳是指序列的联合分布函数与时间的推移无关,而弱平稳则是指序列的某些分布度量指标,比如期望、方差和协方差不随时间推移而变化,也是一般所讲的平稳。由于经济系统惯性的作用,经济时间序列往往存在着前后依存的关系,而这种前后依存关系则是时间序列预测的基础(自相关或者移动平均),以随机游走过程(即白噪声)为例很容易证明其方差与时间成正比,即随机游走过程是非平稳的,以非平稳序列为基础采取传统的回归估计方法得到的回归存在伪回归问题。但是,对它做一阶差分之后,便会发现差分序列成为平稳序列,这时候就称原序列为一阶单整序列。依此类推,经过k次阶分滞后实现平稳的序列则为k阶单整序列。
时间序列的平稳性需要经过平稳性检验,主要的平稳性检验方法主要有两种:第一,自相关图和偏自相关图,这个在前面已经述及,只要识别出序列存在自相关,则表示它是非平稳的;第二,单位根检验,主要包括DF检验和ADF检验,因为在存在非平稳性问题时,针对方程进行一般的回归估计所得到的t检验统计量不再服从传统的t分布,所以t检验方法失效,进而无从判断回归系数的显著性。单位根检验方法则是对上面的t检验统计量进行一定的修正,确定其存在极限分布,再以这一分布进行检验。其原假设为序列存在单位根,并且它进行的是单侧检验(左侧检验),所以当统计量小于临界值时才能拒绝原假设,即认为序列不存在单位根。
将这个分析思路运用在多序列中,如果多个序列的都是同阶单整的,则能找到某种线性组合,使得它们整体实现平稳,它们所形成的方程则称为协整方程,而协整回归则是针对协整方程的。协整回归于VAR的不同之处在于它是针对单方程回归,而VAR则是针对多序列之间的系统方程。
Eviews在使用手册中对这一模型的理论基础也进行了说明,它以系统方程的形式设置如下:
yt=Xt'β+D1t'γ1+u1t
Xt= Γ21'D1t+ Γ22'D2t+ε2t
Dt=(D1t',D2t')'
Δε2t=u2t
ytXt~I(0)
ut= =(u1t',u2t')'~I(0)
当然,它还进行了一些其他的推导,D1t和D2t属于趋势变量,可以再Eviews方程设定对话框中进行设定,还可以选择趋势类型,包括none、constant、linear和quadratic。同时,还需要选择非平稳方法设定中选择何种方法,Eviews提供了三种方法:
1、FMOLS,即Fully-modified OLS。
Engle和Granger已经证明当样本容量趋于无穷大时, 协整向量的OLS估计量具有超一致性。因此在样本容量足够大时,利用OLS估计协整参数是目前的主要方法之一。另外一种估计协整参数方法是由Johansen提出的极大似然估计(ML),且在大样本条件下, MLE估计量具有超一致性和渐近正态性等优良性质。(1)当只有一个协整向量时(协整回归有可能存在多个协整向量,这时到底哪个才能代表真实的长期均衡关系?一般采用最大特征值所对应的协整向量作为真实的长期均衡关系,但依据是什么?至今没有明确的答案。),在样本容量=100时,OLS与ML相当;(2)在样本容量较大(N=300)时, ML法要优于OLS法, 且具有较小的均方误差,也就是说在样本较大时,ML比 OLS估计量更加有效;(3)非正态性设定对ML估计的影响较小,即在数据服从非正态分布时,ML也具有良好的特性;(4)滞后阶数的选择对ML估计的影响较为敏感,较长滞后阶的选择对 ML估计的有效性影响较小,而较短(相对于真实滞后阶数而言)的滞后阶选择对有效性影响较大,所以在应用 Johansen方法时尽量采用较大的滞后阶,这样得到的协整参数估计和检验会更加准确。然而,ML方法虽然在大样本下要优于OLS估计, 但是它所要求的样本容量较大,而在实际的经济分析尤其是宏观经济中,样本容量往往较小,一般都小于100,所以对OLS法的改进研究显得尤其重要。FMOLS则是改进方法之一,它能处理协整参数估计中的小样本问题。
提出FMOLS估计法的另一个原因在于:当协整回归中的解释变量与随机干扰项相关时, OLS估计量的渐近分布不再是正态分布, 因此对协整向量的约束性检验的Wald统计量不再渐近地服从于卡方分布, 这无疑妨碍了Wald检验的应用。因此, FMOLS估计法通过消除解释变量与随机干扰项之间的相关性,从而获得协整参数估计量的一致估计量和FMOLS估计量的渐近正态性分布, 这样可以利用传统的Wald统计量来对协整参数进行检验,避免了由于冗余参数对检验统计量极限分布的影响。
2、CCR,即Canonical Cointegrating Regression
CCR的思路与FMOLS一致,不同之处在于它对(yt,Xt')数据进行平稳性转换,获得最小二乘估计,进而消除协整方程和解释变量随机修正方程(即前面的两个方程式)之间的依存关系。
3、DOLS,即Dynamic OLS
这一方法的思路更加简单,即在协整方程中加入解释变量滞后项,如下所示:
yt=Xt'β+D1t'γ1+ΣΔXt+j'δ+v1t