全部版块 我的主页
论坛 计量经济学与统计论坛 五区 计量经济学与统计软件 EViews专版
3988 0
2014-03-15
二元选择模型  BINARY----Binary Choice
    一般的回归都假定被解释变量时连续的,但是现实中却明显存在许多离散型的变量,包括名义变量和顺序变量等,离散型因变量模型就是用于处理这一问题,而在离散选择模型中,最简单的情形是在两个可供选择的方案中选择其一,此时被解释变量只取两个值(用0某种属性没发生,1表示某种属性发生),即二元选择模型。
1、模型的演变与引入
    一般的回归,模型右侧部分都是参数线性的,所以模型的选择从线性概率模型(LPM)开始。对LPM的被解释变量求条件均值会发现其值等于被解释变量=1的概率。在此基础上求解随机干扰项的预期值及方差可以明显地发现随机干扰项既非同均值也非同方差,即根本不满足正态分布的经典假设。而采取WLS消除异方差的办法却无法满足被解释变量取值在0-1之间的约束条件(被解释变量的条件均值等于Pi,所以被解释变量的回归拟合值也就是Pi的回归拟合值,既然是概率值,自然位于0-1),因此LPM遇到了理论困境。除此之外,PLM中Pi随着解释变量的增加其编辑变化不变,这一点也与许多经济现实不符,两者之间常常呈现出一种前低后高(经典的S型)的非线性关系。综上,只能抛弃这种假设。
    由于LPM的各种困难,需要对它进行某种变换,从而使预测Pi对于所有的X都落在(0,1)之间的做法就是自然而然的了。变换的要求是把可能分布在整个实数轴上的X值变换成分布在(0,1)区间上的概率。并且这种变换还要保持这样的特点,即对于所有的X值,X的增加对应于被解释变量的增加(或者减少)。这些要求共同指向了累计概率函数F,即分布函数,就是以分布函数的值来表示被解释变量的条件均值(Pi更好理解一些)。这里还有最关键的一步就是引入隐变量的概念,它符合两个特征:第一,它与X存在线性关系;第二,它与被解释变量保持同向或者异向变动关系,这样就能够对它设置门限值,比如当它大于0时,被解释变量=1;而当它小于0时,被解释变量=0,如此就可建立两者之间的映射关系,此时0就是所谓的门限值。而上面所说的分布函数就是指隐变量与解释变量组成的线性模型的随机干扰项的分布函数。根据对于模型的变换尤其是分布函数的选择不同,主要采取了一下几种模型:
2、Probit模型
    该模型选择的分布函数为标准正态分布,以0为门限值,令yi*为隐变量,ui*为隐变量与解释变量线性模型的随机干扰项。有:
yi*=xi*βi+ui*
p(yi=1|xi,β)=p(yi*>0)=p(ui*>-xi*βi)=1-F(-xi*βi)
p(yi=0|xi,β)=p(yi*<=0)=p(ui*<=-xi*βi)=F(-xi*βi)
    Eviews的操作非常简单,不予赘述。得到回归估计系数之后按照上面的公式代入就可以求得被解释变量的两个估计概率值了。Probit估计的输出结果较之一般模型多出了以下统计量:
第一,Log likelihood,即对数似然函数的最大值。这个统计量前面的回归模型也有,这里特别提出来是要说明BINARY模型采取的估计办法为最大似然估计法,这是因为OLS在处理0-1型数据上存在无法避免的缺陷,尤其是对于Logit模型而言。
第二,Hannan-Quinn criterion,即HQ信息准则,与AIC、SC没有实质上的区别,也是越小越好。
第三,Avg.Log likelihood,对数似然函数的最大值除与观测值个数的比值。
第四,Restr.Log likelihood,添加了一个约束条件:所有斜率系数为0。也就是仅含有截距项的模型的对数似然函数的最大值。这种模型又称为截距概率模型,主要用于与无约束模型进行比较,以确定系数整体的显著性。
第五,LR statistic,如上面所言,检验系数整体的显著性,原假设为所有的系数=0。作用类似于线性回归中的F统计量。当所设定的回归模型中不包含截距项时,不显示该统计量。
第六,Probability(LR stat),上一个检验的P值。
第七,McFadden R-squared,似然比指标,等于(1-最大似然值)/最大似然值,类似于线性回归中的可决系数。同样的,当回归模型中不包含截距项时,不显示该统计量。
3、Logit模型
    该模型选择的分布函数为逻辑分布,基本分析与上面类似。需要说明的是,Logit模型做了更大的变换,由于逻辑分布的特殊性,该模型直接将Pi的分布函数展开,并且最终将模型转换为以下形式:
Li=Ln【Pi/(1-Pi)】=Ln(e^y*)=y*=xi*βi
    这样就直接可以将回归结果代入公式中求得Pi的值,而不需要像Probit模型一样还要将回归系数代入计算分布函数值。很明显当Pi=1或者0时,采取OLS会陷入窘境。当然,也可以直接采取如同Probit的方式计算。
4、Extreme value模型
    该模型选择的分布函数为极值分布,基本分析与上面类似。
    二元选择模型中估计的系数不能被解释成对因变量的边际影响,只能从符号上判断。如果为正,表明解释变量越大,因变量取1的概率越大;反之,如果系数为负,表明相应的概率将越小。要想获得这种编辑影响必须从函数方程式出发,将pi对各个解释变量求导,其有效的一阶导数值就是编辑影响的度量。

有序因变量模型  ORDERED----Ordered Choice
    二元选择模型假定被解释变量只有两种可能取值,但这显然无法覆盖全部的离散因变量类型,许多名义变量或者顺序变量的取值个数超过两个,有序因变量模型就是针对这一问题的。有序因变量模型是二元选择模型的扩展,但也有自己的特点,即被解释变量必须为顺序或者级别型变量,所谓“排序”是指在各个选择项之间有一定的顺序或级别种类。之所以有这样的限定,其实是为了便于后面利用分布函数计算每种可能的概率值。
    有序因变量模型的整个处理过程思路和二元选择模型是完全一样的,它的核心也在于隐变量的设置和分布函数的选择,只不过因为可能结果多谢所以在计算上要稍微复杂一些。二元选择模型在隐函数与被解释变量的联动关系中只需要设置一个门限值,而有序因变量模型中则需要设置和(被解释变量可能结果数量-1)相等的门限值。假定可能结果为0-M共M+1种,则要设置M个门限值,这种设置方式其实就跟设置虚拟变量类似。此时,计算各种可能结果的概率如下所示:
yi*=xi*βi+ui*
p(yi=0|xi,β)=p(yi*<=c1)=p(ui*<=c1-xi*βi)=F(c1-xi*βi)
p(yi=1|xi,β)=p(c1<yi*<=c2)=p(c1-xi*βi<ui*<c2-xi*βi)=F(c2-xi*βi)-F(c1-xi*βi)

p(yi=M|xi,β)=p(yi*<=cm)=p(ui*<=cm-xi*βi)=1-F(cm-xi*βi)
    当得到回归结果代入公式中就可以进行计算了。
    有两点需要指出:首先,EViews不能把常数项和临界值区分开,因此在变量列表中设定的常数项会被忽略,即有无常数项都是等价的。其次,EViews要求因变量是整数,否则将会出现错误信息,并且估计将会停止。
    另外,与二元选择模型不同的是,有序因变量模型也会给出门限值的估计值,以用于概率的计算,其序列也可以通过回归窗口的proc---Make Ordered Limit Vector建立。
    因为排序选择模型的因变量代表种类或等级数据,所以不能从估计排序模型中直接预测。联立方程模型、向量自回归模型等也会遇到类似问题,解决这一问题的方式就是利用Eviews中的Make Model功能解决。
    有序因变量的其他内容与二元选择模型大同小异。

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群