如果不是在经典Gauss-Markov假设下面,我们研究的更多的是统计量的大样本性质,而大样本性质是指n趋向无穷大时的性质,事实上我们永远不可能使n达到无穷大,因此收敛速度就成为很重要的一个影响因素。一般来说,收敛速度比较快的时候,比如说根号n收敛,那么样本就算稍微小点问题也不大,但假如是kernel estimation,那么根本达不到根号n的收敛速度,这时候的样本就要求更加大才行。
我有两个问题,我不记得谁说过,OLS回归只要有30个以上的样本点就可以近似的看做是满足大样本性质,但我不知道这个30是怎么来的,第二个问题是,类似kernel这种收敛速度比较慢的估计量,我们大概要多大的一个样本才够呢,谢谢了。