1. 在构建工具变量模型时,理论上来说过度识别优于恰好识别。因为如果使用了过多的工具变量(即过度识别),你实际上是在对你的模型进行更严格的检验,这可以提高估计量的有效性和可信度。然而,这些额外的工具变量必须是独立于误差项、与内生解释变量相关并且满足排他性约束,否则它们会成为弱工具变量。
在实际操作中,剔除弱工具变量的方法通常是通过执行弱识别测试(如Stock-Yogo检验)。如果某个工具变量被确定为弱工具变量,则可能需要考虑替换它或者重新寻找更多的工具变量。弱工具变量的问题在于,如果工具变量与内生解释变量的相关性较弱,那么即使在过度识别的情况下,估计结果也可能出现严重偏差。
2. 在非线性回归模型中包含X和X的平方项时,应将它们视为两个独立的内生变量来处理。这意味着你需要为X及其平方项找到不同的工具变量或使用相关的组合以满足排他性约束。如果使用一个工具变量的原始值和其平方作为工具变量,则这可能违反了排他性的要求,因为这些“工具变量”之间的线性关系并不保证它们能独立地影响内生解释变量。
理想情况下,为X及其平方项找到相互独立且与模型误差无关的工具变量。然而,在某些情况下,这种完全独立的工具变量很难找到,此时可以考虑使用至少两个相关但非线性的工具变量组合(如不同来源的相关数据或滞后项等)。确保这些工具变量与内生解释变量之间具有足够强的相关性,并通过弱识别测试检验它们的有效性。
此文本由CAIE学术大模型生成,添加下方二维码,优先体验功能试用