全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 R语言论坛
7172 4
2011-04-15
MSE <- (var(y)-cov(x, y)^2/var(x))*(n-1)/(n-2)

还有一个公式:

MSE <- sum((y-a-b*x)^2)/(n-2)

是一回事吗?
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2011-4-15 21:30:48
MSE是 mean square error,即均方误差。

楼主的这两个式子,下面这个应该是一元回归的均方误差,上面的是对var(y)进行估计的均方误差。

所以都是MSE
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2011-4-16 11:24:26
2# guanglei

是一元线性回归的MSE。

不知道您对Reduced Major Axis (RMA)有了解吗?
传统的最小二乘法y=a+bx
b1=Sxy/Sxx
a1=mean(y)-b*mean(x)
MSE1=(y-a1-b1*x)^2/(n-2)

但是在Reduced Major Axis中,斜率的计算公式不一样:
b2=sqrt(Syy/Sxx)
a2=mean(y)-b*mean(x)

有关于RMA中参数标准差的估计公式:
SE(b2)=sqrt(MSE2/Sxx)
SE(a2)=sqrt(MSE2*(1/n+mean(x)^2/Sxx)),

但是此处老外对MSE2的定义仍然是MSE2=(y-a1-b1*x)^2/(n-2),而不是MSE2=(y-a2-b2*x)^2/(n-2),为什么呢?
既然是针对RMA的参数估计,那么为什么在对b2和a2标准差的估计中使用的MSE是由传统的最小二乘法计算出来的呢?

我一直没有搞懂,按照只管的理解,MSE2应该等于MSE2=(y-a2-b2*x)^2/(n-2)啊。呵呵,我搞不懂的。

请高手多多指教。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2015-6-18 09:35:39
x与y的均方误差一样吗
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2015-6-18 09:35:40
x与y的均方误差一样吗
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群