\[线性模型:y=\chi \beta+\epsilon\]
\[误差假定:E(\epsilon)=0,cov(\epsilon,\epsilon)=\delta^2 I_{n\times n}\]
\[高斯-马尔科夫线性模型:E(y)=\chi \beta,cov(y,y)=\delta^2 I_{n\times n}\]
1.为什么E(\Chi \Beta)=\Chi \Beta?原来这是最开始线性模型的假设。不大好理解。
2.比如,有两个随机变量a,b,如果E(a),E(b)都存在,那么E(ab)能用E(a),E(b)表示吗?连续情况下和卷积有关。可以,其实E(ab)和协方差相关,
E(ab)=cov(a,b)+E(a)E(b)。协方差有可能为负吗?方差总是正的。有可能。协方差是两个随机变量对各自
期望的离差乘积,每个离差会自然的有正有负数,况且a,b的关系可以任意,离差乘积自然也有正有负,两个随机变量穷尽自己
的取值形成|a|*|b|个离差乘积和相应概率。怎样为正,怎样为负,有何种意义?随机变量ab的方差呢?协方差反应在二阶矩上
D(a+b)=Da+Db+2cov(a,b)。
3.按照定义cov(x,y)=E[(x-E(x))*(y-E(y))],表示两随机变量x,y被放在一个随机向量中时,它们偏离自己的方差的积。发现
高斯-马尔科夫线性模型中的第二个部分在描述y的方差,我去。重写高斯-马尔科夫线性模型:
\[高斯-马尔科夫线性模型:E(y)=\chi \beta ,D(y)=\delta^2 I_{n\times n}\]
4.有了怎样的观测,才能假定问题可以使用上面的模型,然后开始估计\beta?有若干个因素独立地影响着随机向量y,一个因素
可以影响到几个观测,一个观测也受几个因素的影响,但是,这几个因素都能线性地影响观测,我疑惑这个很普遍吗?大不了
假设检验抛弃嘛!完成估计,通过检验,就能预测了。
5.用使得误差项最小的最小二乘法估计能估计能同时估计出\beta和\delta吗? 对的,最后把\delta也估计出来了。Q_e/\delta^2
服从卡方分布。
\[Q=\epsilon^\prime\epsilon=\sum_{t=1}^{n}\epsilon_t^2=\sum_{t=1}^{n}\{y_t-\sum_{i=1}^{k}\beta_ix_{ti}\}^2\]
6.估计过程就是求满足下式的\hat{\beta}的过程。\beta有k个随机变量。
\[\sum_{t=1}^{n}\{y_t-\sum_{i=1}^{k}\hat{\beta}_ix_{ti}\}^2=\underset{\{\beta_1,\beta_2,...,\beta_k\}}{min}\sum_{t=1}^{n}\{y_t-\sum_{i=1}^{k}\beta_ix_{ti}\}^2\]
7.对Q求\beta_i的偏导,可是保证求得的点是最小值而不是最大值呢?在其存在时,是必要条件。
\[\frac{\partial Q}{\partial \beta_i}=-2\sum_{t=1}^{n}\{y_t-\sum_{j=1}^{k}\beta_jx_{tj}\}\cdot x_{ti},i=1,2,3...,k\]
偏导数为零即:
\[\sum_{t=1}^{n}y_t=\sum_{t=1}^{n}\sum_{i=1}^{k}\hat{\beta}_jx_{tj}\cdot x_{ti}\]
8.回到标题问题。y是随机向量,记y=(y_1,y_2,...,y_2)^T,那么Dy是矩阵:
\[Dy=\begin{pmatrix}y_{11}&y_{12}&\cdots&y_{1n}\\y_{21}&y_{22}&\cdots&y_{2n}\\\vdots&\vdots&\cdots&\vdots
\\y_{n1}&y_{n2}&\cdots&y_{nn}\end{pmatrix},其中,y_{ij}=cov(y_i,y_j)\]
9.写出高斯-马尔科夫线性模型非向量表示的形式:
\[\begin{pmatrix}y_1\\y_2\\\vdots\\y_n\end{pmatrix}=\begin{pmatrix}x_{11}&x_{12}&\cdots&x_{1k}\\x_{21}&x_{22}&\cdots&x_{2k}\\\vdots&\vdots&\cdots&\vdots\\x_{n1}&x_{n2}&\cdots&x_{nk}\end{pmatrix}\begin{pmatrix}\beta_1\\\beta_2\\\vdots\\\beta_k\end{pmatrix}+\begin{pmatrix}\epsilon_1\\\epsilon_2\\\vdots\\\epsilon_n\end{pmatrix}\]
10.为了计算cov(y_l,y_m),先写出y_i,y_j的形式:
\[y_l=x_{l1}\beta_1+x_{l2}\beta_2+\cdots+x_{lk}\beta_k+\epsilon_l=\sum_{j=1}^{k}x_{lj}\beta_j+\epsilon_l\\
y_m=x_{m1}\beta_1+x_{m2}\beta_2+\cdots+x_{mk}\beta_k+\epsilon_m=\sum_{j=1}^{k}x_{mj}\beta_j+\epsilon_m\]
11.在求cov(y_l,y_m)时,cov(x_{l1}\beta_1,x_{m1}\beta_1)涉及四个变量的协方差,如何计算?模型并没有假定
cov(\chi\beta,\chi\beta)满足怎样特定的条件。
写出高斯-马尔科夫模型的第一个很强的约束条件Ey=\chi\beta:
\[\begin{cases}Ey=E(\chi\beta)+E\epsilon\\Ey=\chi\beta\\E\epsilon=0\end{cases}\Rightarrow E(\chi \beta)=\chi \beta\]
这样,我们理解了第一个假设的意义:Ea=a表示a是个常数,也就是说高斯-马尔科夫模型假定的第一个条件十分强烈,\chi和
\beta两个矩阵相乘得到的n*1矩阵是常数!

但是在观测中会有很微弱的\epsilon的误差!即我们知晓每一个\chi\beta中
的每个元素都是常量。条件是超级超级强的!!如果我是书作者我就会直接用上面推出来的那个式子做条件。作者并为把\chi
看做随机矩阵,但是把\chi看成随机矩阵是没有问题的。\chi\beta是常量,\chi有可能是个随机变量吗?是可以的,只要它们的
协方差满足2中的特定关系就可以,也就是说\chi,\beta两个随机变量存在很特定的关系。
12.再看观测y的协方差。
\[\begin{cases}y=\chi\beta+\epsilon\\E(\chi \beta)=\chi \beta\\E\epsilon=0\\cov(\epsilon,\epsilon)=D\epsilon=\delta^2I_{n\times n}\\cov(y,y)=E(y-\bar{y})^2=E(y-\chi\beta)^2=E\epsilon^2=E(\epsilon-\bar{\epsilon})^2=D \epsilon\end{cases}\]
得到y的方差就是误差的方差。
13.总结,通过给线性模型加上一个零期望、给定方差的测量误差项,并且假设因子观测矩阵同参数矩阵的之积为常数,就得
到协方差阵和因子变量没关的一个线性模型——高斯-马尔科夫线性模型。协方差阵和因子变量没关一方面容易处理,我觉着
不是主要的原因。还有观测误差项均值的假设、方差阵的假设都是值得思考的问题。均值这样假设,主要在强调这个模型代表
的事物主要目的在求一致性,方差阵是对角的这在强调,对各个终观测之间的独立性。