全部版块 我的主页
论坛 计量经济学与统计论坛 五区 计量经济学与统计软件 Stata专版
69230 28
2019-07-01
近期一直在梳理工具变量检验问题,感觉一直在用这些命令,可是一直都很乱,看结果看的稀里糊涂。为了更好的纠正检验工具变量的过程,特将检验工具变量的命令整理如下,整理过程中存在部分疑虑和不确定地方,希望大家可以共同学习和纠偏。      存在的疑惑希望解答:
     1、在利用ivreg2时,出现Stock-Yogo weak ID test critical values: <not available>是怎么回事?这样就无法将Cragg-Donald Wald F statistic与Stock-Yogo weak ID test critical values这个值进行对比了,还是只需要看Cragg-Donald Wald F statistic的F值大于10就好?
     2、为什么在利用ivreg2时,有时候结果出现Sargan statistic,有时候出现Hansen J statistic呢?这两个检验显示的结果,如:Hansen J statistic (overidentification test of all instruments): 0.000,是不是就表明工具变量无效?
   工具变量检验方法整理如下:
     首先,进行hausman test,检验所有变量是否均为外生变量,H0:所有解释变量外生;P=0拒绝原假设     其次,如果工具变量个数>内生变量,则进行过度识别。
               命令使用:利用estat overied进行验证。
               结果判断: sargan test:H0:工具变量有效。
     最后,弱工具变量检验:
              方法1:偏R2
              方法2:一阶段回归时,看F值,F>10拒绝存在“弱工具变量”的原假设
              使用命令:estate firststage,all forcenonrobust(针对方法1和方法2)
              结果判断:shea's partial R2的P=0、一阶段回归F>10
              方法3:Cragg-Donald Wald F统计量,这里又说这个值>10即可,也有人说要大于Stock-Yogo weak ID test critical values在10%的水平,拒绝原假设,H0:存在弱工具变量。
              方法4:Kleibergen-Paap rk LM statistic F值很大,P=0拒绝原假设。
              使用命令:利用ivreg2
           (补充弱工具变量的含义:两阶段最小二乘中,第一阶段回归是利用OLS建立每个内生变量关于工具变量和外生变量的回归,得到x_hat;第二阶段回归则利用x_hat来取代x,由此得到bei ta。弱工具变量则是cov(zi,xi)约等于0,即工具变量计划不能解释x的变动。)

      以上为检验工具变量的基本方法。当工具变量个数=内生变量时,无法进行过度识别,当工具变量个数>内生变量时,进行过度识别检验。








二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2019-9-25 17:59:19
你好,你的问题解决了吗?我的也出现Hansen J statistic (overidentification test of all instruments): 0.000,不知道是什么意思
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2020-2-3 19:15:43
qeileen 发表于 2019-9-25 17:59
你好,你的问题解决了吗?我的也出现Hansen J statistic (overidentification test of all instruments): 0 ...
你好,我碰到和你一样的问题,你现在知道它代表了什么意思吗?
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2020-2-3 20:29:34
18214943427 发表于 2020-2-3 19:15
你好,我碰到和你一样的问题,你现在知道它代表了什么意思吗?
Hansen J统计量直接等于0,说明是恰好识别,即工具变量个数等于内生变量个数。在这种情况下,过度识别检验是不可用的(过度识别检验只能在工具变量多于内生变量时才可用,且有效工具变量的个数至少要等于内生变量个数)。
至于Sargan统计量和Hansen J统计量的区别,主要在于:
1. 在普通标准误下,两阶段最小二乘法(2SLS)的过度识别检验用的是Sargan统计量;有限信息极大似然法(LIML)的过度识别检验用的是Anderson-Rubin卡方统计量;广义矩法(GMM)用的是Hansen J统计量;
2. 在稳健标准误下,三个方法的过度识别检验用的都是Hansen J统计量。
以上三个统计量的假设检验方法是一样的。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2020-2-8 23:01:09
Sea.Zeng 发表于 2020-2-3 20:29
Hansen J统计量直接等于0,说明是恰好识别,即工具变量个数等于内生变量个数。在这种情况下,过度识别检 ...
我明白了,非常感谢
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2020-5-5 20:07:48
求问楼主,问题一时如何解决的呢?
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群