全部版块 我的主页
论坛 计量经济学与统计论坛 五区 计量经济学与统计软件
32945 23
2011-08-15
最近在学习因果分析及动态关系方面的论文,学习杨子晖《财政政策与货币政策对私人投资的影响研究》(经济研究 2008年 第05期)这篇论文,其中在介绍方差分解的局限性时提到:
二、传统研究方法存在的局限性
(前面讲Granger因果检验的局限性)相比较而言,方差分解方法能够为我们的研究提供更多的信息,因为它考虑了经济变量间的关系在经济意义上的显著性(Sims ,1980 ;Abdullah and Rangazas ,1988) 。同时,借助预测方差分解方法我们也可对各种传导途径的有效性进行比较,然而传统的方差分解方法同样存在着一定的局限性。这是因为正确设定扰动项(innovation)之间的同期因果关系,是合理地进行方差分解的关键(Bernanke ,1986 ; Cooley and LeRoy ,1985 ;Swanson and Granger ,1997) 。然而,在国内外应用VAR 进行分析的相关文献中,大多采取传统的Choleski分解,即在正交化(orthogonalize) 过程中对扰动项施加了一个恰好识别的同期关系结构。这一方法的最大问题在于它对VAR模型的结构进行了先验的主观判断,缺乏充分的理论基础,且认为扰动项之间存在着递归的同期因果关系,这无疑是一个很强却未必真实的识别假定 (Bernanke, 1986; Cooley和LeRoy, 1985; Swanson 和Granger,1997),而且在实际的经验分析中,常常因变量排列次序的不同而使得结论发生了迥异的变化。而Bernanke于1986 年提出的Bernanke分解,使得研究者拥有更灵活的空间,以对扰动项之间的同期因果关系进行设定。它虽然避免了类似Choleski分解中“扰动项递归关系”的强假定,但在应用SVAR(结构向量自回归模型) 进行研究的相关文献中,研究者依然需要借助先验的信息或相关的理论以对扰动项的同期关系进行设定,这就不可避免地存在着一定程度的主观色彩(Swanson 和Granger,1997)。
概括一下,方差分解(Variance decomposition)即预测方差分解(Forecast error variance decomposition)的局限性主要是在分解过程中需要对扰动项做一个同期关系的假定,而这个假定往往是主观的。
具体的,①对于Choleski分解(即对角化)对扰动项“施加了恰好识别的同期关系结构”,认为扰动项间存在着“递归的同期因果关系”。②对于Bernanke分解,虽然避免了Choleski分解中的强假定,但依然需要对扰动项的同期关系进行设定。

不知我概括的是否正确。其中有几点不是很明白:
(1)Choleski分解中“认为扰动项间存在着递归的同期因果关系”是什么意思?据此“对扰动项施加恰好识别的同期关系结构”中“恰好识别”又是什么意思?
(2)Bernanke中的假定与Choleski中的假定在哪里?
(3)VAR模型的方差分解与ECM是否相同?

小菜是金融本科生,望请各位大师指点。
或者提供一些可以进一步参考学习的资料。
谢谢!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2011-8-15 19:16:12
本科生搞这么复杂没必要,PS:表示压力很大。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2011-8-15 19:16:22
本科生搞这么复杂没必要,PS:表示压力很大。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2011-8-15 19:16:58
不同的方法都是为了使得模型可以识别。
1,Choleski分解相当于将变量比如,X,Y,Z排个顺序,这个顺序的意思是,后续的变量对应的扰动“在当期”对前面的变量没有影响。这相当于是加了一定数量的约束,而且这种处理会使得约束的数量 让模型“恰好识别”。
2,SVAR采用了比1更灵活的模型识别约束的施加方法,只要施加的约束的数量(当然,数量只是必要条件,并不充分)使得模型可以敲好识别,那么也就达到识别模型的目的了。与Choleski分解中的变量排序一样,这些约束都是“先验的”,就像你假定整个VAR模型的形式一样,都是外在于数据的东西。
3,VAR模型的方差分解与ECM的不同,ECM是是施加了协整(Cointegration)约束的VAR,两者是无约束模型和约束模型的差别。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2011-8-15 22:12:06
iooo 发表于 2011-8-15 19:16
不同的方法都是为了使得模型可以识别。
1,Choleski分解相当于将变量比如,X,Y,Z排个顺序,这个顺序的意 ...
非常感谢您的指点!学习到了好多。

不过还有一些疑问。这些方法都是了模型可以识别,这里的“识别”是什么意思呢?(一些教材上把“确定VAR模型的之后阶数”称为“识别”,这里好像不是这个意思吧)
还有,Choleski分解的假定使模型"恰好识别",这里的“恰好”又是什么意思呢。

非常感谢!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2011-8-16 10:00:37
swordzman 发表于 2011-8-15 22:12
非常感谢您的指点!学习到了好多。

不过还有一些疑问。这些方法都是了模型可以识别,这里的“识别”是 ...
与方程组的求解是类似的。大致来说,有n个未知参数,但方程个数少于n个,就是不能识别;有n个未知数,方程个数等于n个,恰好识别;有n个未知数,但方程个数多于n个,就是过度识别。  当然,上面说的不是很严格,方程组解的情况,线性代数中有严格的说明。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群