全部版块 我的主页
论坛 提问 悬赏 求职 新闻 读书 功能一区 经管百科 爱问频道
10624 3
2014-09-09
\[线性模型:y=\chi \beta+\epsilon\]
\[误差假定:E(\epsilon)=0,cov(\epsilon,\epsilon)=\delta^2 I_{n\times n}\]
\[高斯-马尔科夫线性模型:E(y)=\chi \beta,cov(y,y)=\delta^2 I_{n\times n}\]

1.为什么E(\Chi \Beta)=\Chi \Beta?原来这是最开始线性模型的假设。不大好理解。

2.比如,有两个随机变量a,b,如果E(a),E(b)都存在,那么E(ab)能用E(a),E(b)表示吗?连续情况下和卷积有关。可以,其实E(ab)和协方差相关,E(ab)=cov(a,b)+E(a)E(b)。协方差有可能为负吗?方差总是正的。有可能。协方差是两个随机变量对各自
期望的离差乘积,每个离差会自然的有正有负数,况且a,b的关系可以任意,离差乘积自然也有正有负,两个随机变量穷尽自己
的取值形成|a|*|b|个离差乘积和相应概率。怎样为正,怎样为负,有何种意义?随机变量ab的方差呢?协方差反应在二阶矩上
D(a+b)=Da+Db+2cov(a,b)

3.按照定义cov(x,y)=E[(x-E(x))*(y-E(y))],表示两随机变量x,y被放在一个随机向量中时,它们偏离自己的方差的积。发现
高斯-马尔科夫线性模型中的第二个部分在描述y的方差,我去。重写高斯-马尔科夫线性模型:
\[高斯-马尔科夫线性模型:E(y)=\chi \beta ,D(y)=\delta^2 I_{n\times n}\]

4.有了怎样的观测,才能假定问题可以使用上面的模型,然后开始估计\beta?有若干个因素独立地影响着随机向量y,一个因素
可以影响到几个观测,一个观测也受几个因素的影响,但是,这几个因素都能线性地影响观测,我疑惑这个很普遍吗?大不了
假设检验抛弃嘛!完成估计,通过检验,就能预测了。

5.用使得误差项最小的最小二乘法估计能估计能同时估计出\beta和\delta吗? 对的,最后把\delta也估计出来了。Q_e/\delta^2
服从卡方分布。
\[Q=\epsilon^\prime\epsilon=\sum_{t=1}^{n}\epsilon_t^2=\sum_{t=1}^{n}\{y_t-\sum_{i=1}^{k}\beta_ix_{ti}\}^2\]

6.估计过程就是求满足下式的\hat{\beta}的过程。\beta有k个随机变量。
\[\sum_{t=1}^{n}\{y_t-\sum_{i=1}^{k}\hat{\beta}_ix_{ti}\}^2=\underset{\{\beta_1,\beta_2,...,\beta_k\}}{min}\sum_{t=1}^{n}\{y_t-\sum_{i=1}^{k}\beta_ix_{ti}\}^2\]

7.对Q求\beta_i的偏导,可是保证求得的点是最小值而不是最大值呢?在其存在时,是必要条件。
\[\frac{\partial Q}{\partial \beta_i}=-2\sum_{t=1}^{n}\{y_t-\sum_{j=1}^{k}\beta_jx_{tj}\}\cdot x_{ti},i=1,2,3...,k\]
偏导数为零即:
\[\sum_{t=1}^{n}y_t=\sum_{t=1}^{n}\sum_{i=1}^{k}\hat{\beta}_jx_{tj}\cdot x_{ti}\]

8.回到标题问题。y是随机向量,记y=(y_1,y_2,...,y_2)^T,那么Dy是矩阵:
\[Dy=\begin{pmatrix}y_{11}&y_{12}&\cdots&y_{1n}\\y_{21}&y_{22}&\cdots&y_{2n}\\\vdots&\vdots&\cdots&\vdots
\\y_{n1}&y_{n2}&\cdots&y_{nn}\end{pmatrix},其中,y_{ij}=cov(y_i,y_j)\]

9.写出高斯-马尔科夫线性模型非向量表示的形式:
\[\begin{pmatrix}y_1\\y_2\\\vdots\\y_n\end{pmatrix}=\begin{pmatrix}x_{11}&x_{12}&\cdots&x_{1k}\\x_{21}&x_{22}&\cdots&x_{2k}\\\vdots&\vdots&\cdots&\vdots\\x_{n1}&x_{n2}&\cdots&x_{nk}\end{pmatrix}\begin{pmatrix}\beta_1\\\beta_2\\\vdots\\\beta_k\end{pmatrix}+\begin{pmatrix}\epsilon_1\\\epsilon_2\\\vdots\\\epsilon_n\end{pmatrix}\]

10.为了计算cov(y_l,y_m),先写出y_i,y_j的形式:
\[y_l=x_{l1}\beta_1+x_{l2}\beta_2+\cdots+x_{lk}\beta_k+\epsilon_l=\sum_{j=1}^{k}x_{lj}\beta_j+\epsilon_l\\
            y_m=x_{m1}\beta_1+x_{m2}\beta_2+\cdots+x_{mk}\beta_k+\epsilon_m=\sum_{j=1}^{k}x_{mj}\beta_j+\epsilon_m\]

11.在求cov(y_l,y_m)时,cov(x_{l1}\beta_1,x_{m1}\beta_1)涉及四个变量的协方差,如何计算?模型并没有假定
cov(\chi\beta,\chi\beta)满足怎样特定的条件。写出高斯-马尔科夫模型的第一个很强的约束条件Ey=\chi\beta:
\[\begin{cases}Ey=E(\chi\beta)+E\epsilon\\Ey=\chi\beta\\E\epsilon=0\end{cases}\Rightarrow E(\chi \beta)=\chi \beta\]
这样,我们理解了第一个假设的意义:Ea=a表示a是个常数,也就是说高斯-马尔科夫模型假定的第一个条件十分强烈,\chi和
\beta两个矩阵相乘得到的n*1矩阵是常数!但是在观测中会有很微弱的\epsilon的误差!即我们知晓每一个\chi\beta中
的每个元素都是常量。条件是超级超级强的!!如果我是书作者我就会直接用上面推出来的那个式子做条件。作者并为把\chi
看做随机矩阵,但是把\chi看成随机矩阵是没有问题的。\chi\beta是常量,\chi有可能是个随机变量吗?是可以的,只要它们的
协方差满足2中的特定关系就可以,也就是说\chi,\beta两个随机变量存在很特定的关系。

12.再看观测y的协方差。
\[\begin{cases}y=\chi\beta+\epsilon\\E(\chi \beta)=\chi \beta\\E\epsilon=0\\cov(\epsilon,\epsilon)=D\epsilon=\delta^2I_{n\times n}\\cov(y,y)=E(y-\bar{y})^2=E(y-\chi\beta)^2=E\epsilon^2=E(\epsilon-\bar{\epsilon})^2=D \epsilon\end{cases}\]
得到y的方差就是误差的方差。

13.总结,通过给线性模型加上一个零期望、给定方差的测量误差项,并且假设因子观测矩阵同参数矩阵的之积为常数,就得
到协方差阵和因子变量没关的一个线性模型——高斯-马尔科夫线性模型。协方差阵和因子变量没关一方面容易处理,我觉着
不是主要的原因。还有观测误差项均值的假设、方差阵的假设都是值得思考的问题。均值这样假设,主要在强调这个模型代表
的事物主要目的在求一致性,方差阵是对角的这在强调,对各个终观测之间的独立性。





二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2014-9-9 14:14:15
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2014-9-9 15:20:00
[tongue]
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2014-9-9 15:32:06
你可以试着用MARKOWITZ的理论去分析它,试着用分散定理按照二元函数求极值的情况。其预期组合和风险收益等于其加权平均数,不过我觉得这里尝试着用一下无差异曲线进行分析构造估计量E(a),E(b),然后转化成线性无偏估计量求最小值用拉格朗日方程求其方差最小最小值LSM估计量。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群