一些回答
1、我觉得和均衡不均衡没有关系。这个世界的各个变量本来就是在流动的变化当中,不管 
是从什么性质的状态变化成什么性质的状态。计量的目的就是要找到最优的参数(非参模 
型是找到最优的函数)去刻画这种变化。或者用一句直白但是不太精确的话说,即使你的 
参数是从非均衡到均衡过渡的状态中估计出来的,也有预测意义,因为将来也会出现从非 
均衡到均衡的过渡状态。当然,现在主流的观点是任何看到的或已经实现了的状态都是均 
衡状态,“非均衡”在这种观念下是个伪概念。巴罗以前搞了很多年非均衡,他自己都放 
弃了。 
2、如果你所说的精度是一致性的话,在模型设定正确的情况下,当然是样本越大越好。换 
句话说,小样本下任何情况都可能发生,很不准确。不过对于时间序列来说,有限样本也 
足够去拟合和预测了,这可能和时间系统本身的属性有关。 
3、如果你所说的信息量的损失是相对于总体来说的话,没有办法去判断,因为我们不知道 
总体是什么样子。为了使样本尽量反映总体的信息,抽样设计是关键,这也就不是我们拿 
到数据做研究的人所能控制的了。我们能做的,就是在样本的范围内检验参数的稳健性, 
比如做子样本的稳健性估计。 
思考两天,还是ebwf解答非常正确,特别是第一部分的解答,简直是字字珠玑,一语道破 
天机。 
1、由于大部分的计量模型还是缘于最初的理论推导,如何沟通理论推演的结果和实际的计 
量模型之间的关系,折磨了我很长时间,也没有想通怎么合理地解释某些计量模型的随意 
增减变量的行为。实际上,在具体地设计计量经济模型时,完全可以抛开理论,而只关注 
变量之间的统计关系;任何事先的推演都只能给出一个变量之间存在关系的大致方向。如 
果不那么精确的话,就应该是不带有理论预设而直接设定计量模型,在最大程度地拟合数 
据的过程中,去发现新的变量关系。倘若发现变量之间存在着和理论不一致的关系,再来 
追查是理论出了问题,还是计量的方法、数据或模型出了问题。 
2、我所说的精度,其实指的是估计值后真值之间的差距,其实就是一致性的概念,随着样 
本量的扩大,估计值最终会收敛至真值,我其实是想弄清楚这种收敛的过程会不会发生紊 
乱,也就是说会出现和真值之间的距离忽远忽近的情况。另外一个问题,就是收敛的速度 
问题,要多少个样本才可以将估计值和真值之间的差距,缩小到我们需要的距离。你提到 
了一句话,小样本情况下估计值什么情况都有可能发生,我才想明白,我提的问题本身就 
是一个伪问题,因为估计参数本身就是一个随机变量,而非一个固定值;因此根本没有精 
确不精确的说法,我们得到的点估计值其实是一个均值。同时,样本数量的扩大,当然会 
使得均值更加靠近真实值了。 
3、计量手段问题。ML、OLS和GMM三种方法中,以GMM的估计值最为稳健,原因在于GMM估计 
根本不对随机变量的分布做出任何先验的设定,只考虑其矩的大小;而ML是必须要对随机 
分量的分布做出先验的分布,否则写不出它的联合分布函数来。实际相当于对后者强加了 
一个人为的假设,其估计值的稳健性就相对较差。我个人的看法,或者说猜测是,由于ML 
给出了一个先验的分布假定,所以其估计值的方差相对较小;而GMM由于不做分布的先验设 
定,因此其估计值的方差就相对较大,很显然GMM估计值在做假设检验时被拒绝的可能性更 
大。不知这种理解是否正确?不同的计量方法,是不是还会影响从样本中抽取到的有关总体 
的信息量的多少?这个也备查。 
4、不同计量模型之间的比较和选择问题,这个问题较为重要,但对我而言还是毫无头绪, 
不同情况下其判别的标准应该是什么,如何同时结合理论要求和统计标准,进行变量的取 
舍,均需要再加以思考。在许多时间序列模型中,选择滞后阶数都带有非常大的随意性, 
虽然也有一定的诸如AIC等判定办法,但是这些判断的准则,也是人为设定的,并不具备更 
多的理论基础,本质上仍然是一种经验性质的东西,因此对这些判别的标准我仍心存怀疑 
。 
5、总体的分布和抽样设计的问题。总体的精确分布当然是不可知的,但由于大数定律的保 
证,常见的分布类型已经足够应付,不知道工科的水平是否已经足够,也不知是否有必要 
掌握测度论基础上的概率理论体系,对于实际的经济研究是否有实际的意义?工科水平的 
随机过程较容易掌握和运用,但对于随机过程的认识和理解却远远不够。这些是题外话, 
有空儿可以再展开讨论。 
无论如何,此前由于纠结于理论模型和实证模型的不融合,一直百思不得其解,ebwf的解 
答,令人顿时豁然开朗。 
 [此贴子已经被作者于2009-6-7 10:01:11编辑过]