请注明:姓名-公司-职位
以便审核进群资格,未注明则拒绝
因为在假设前提下成立
随机误差项的意义:
(1)理论的模糊性;
(2)数据的欠缺;
(3)核心变量与周边变量;
(4)人类行为的内在随机性;
(5)替代变量的误差效应;
(6)函数形式的误差效应。
确定了方程后,就要进行相关的经济分析或预测,随机误差项并不影响分析的结果,因而可以去掉。
[此贴子已经被作者于2009-6-6 15:57:21编辑过]
不管是回归还是预测 能抓住主要矛盾就好了。
在随机误差项假设满足一定条件的基础上,才能提出相应的回归方法。
严格来说,在表达的时候 这个回归方程应该写成 Y=F(X)+ERROR 但是经常会忽略ERROR项。
上面各位的回答也算是部分理解了回归方程的含义,但是没有抓住本质:我们日常应用的Y其实准确的说应该是E(Y).也就是Y的期望,因为Y本身是个随机变量,Y是随机变量的原因是理论假设中随机误差项是随机变量,且独立同分布于标准正态分布,期望为0,方差为1,所以在求E(Y)时,根据期望公式,就可以忽略误差项。
然后在此基础上,在根据LSE或MLE来求系数。
请楼主还是再仔细读一读大学教材,这些书上都有的,都是基础性的东西。
相关性,从不确定性到确定,
在总体估计中,总体函数Yt=B+B1X+u,其中u是随机误差项,反应的是未列入方程中的其他各种因素对Y的影响,是不可直接观测的,而且总体回归函数只有一条。我们是用样本回归函数,通过拟合之后的样本函数尽可能接近于真实的总体回归函数。样本函数Yt=B+B1X+e,e叫做残差,是根根据样本据观测值拟合出样本回归线之后,可以计算出具体值的。在反映总体样本中,希望残差的总量越小越好,因为随机误差项不可测,我们假设他的数学期望为0,简单的代数加总会相互抵消e,所以利用最小二乘法,利用残差平方和最小来估计,令残差平方和为0,得到了B,B1,所以并没有忽略,而是等于0.
根据回归曲线的确定步骤,首先要根据实验或观测数据绘制散点图,以便初步确定关系方程表达式的类型,建立经验回归方程,如果图中反映二者之间的关系呈直线趋势,就估计直线的方程写作:Y=a+bX。在确立方程的过程中,是根据数学中所学过的直线方程的形式来确立的,就不包括ε这一项。而且在回归分析的过程中,存在残差,而残差的概念是:各观察值与估计值的离差平方和,它表示除了X对Y的线性影响之外的一切影响因素所引起Y的变动,它与ε的理论意义一致,说明虽然在回归方程的形式里未出现ε,但是在分析过程中已经充分考虑了ε的影响。
用户名:经济07-3陈杨
回归分析是指对具有相关关系的现象,根据蓁相关关系的具体形态,选择一个合适的数学模型,用来近似地表达变量间的平均变化关系的一种统计分析方法.其标准模型中含有误差ε,但是该误差是常数.而我们在平常使用因变量Y的值的时候就是使用其E(Y).而对于误差常数其期望为0,因此最终是被消除的
理论假设中随机误差项是随机变量,且独立同分布于标准正态分布,期望为0,方差为1,
例如在用最小二乘法估计回归方程参数时一开始设回归的标准形式方程时是假设随机误差项的数学期望为0,故可以忽略误差项,随机误差项并不是没有了。
最后得到的是非随机的样本回归函数Y=b0+b1*X,而这个非随机的样本回归函数是对非随机的总体回归函数E(Y)=B0+B1*X的估计
确定回归方程的时候已经尽可能地采用了拟合度最高的曲线,尽可能地将不可确定的残差缩小了
回归分析实际上也是解决预测问题的一种方法。
回归分析研究的数据并非有严格的线性相关性,只是有大体的线性相关性。对于做出的预测是否正确,跟它的拟合度有很大关系。
只要线性回归方程与实际观测值的拟合度紧密,那么基于线性回归方程所作的预测跟实际观测值是很接近的。因此,是可以“抹掉的”。
而拟合度最优,即要使得均方误差达到最小。