全部版块 我的主页
论坛 提问 悬赏 求职 新闻 读书 功能一区 学道会
1155 8
2019-04-01
机器学习导论》2nd Edition ---(土耳其)Ethem Alpaydin 著 范明 昝(zan)红英 牛常勇译 ----机械Press-2014.3

或者存在噪声,则过分复杂的假设可能不仅学习潜在的函数,且也学习数据中的噪声,导致很差的拟合。
如用六次多项式拟合从三次多项式抽样的噪声数据时,这种情况就会发生。称为:过拟合(overfitting)
这时,拥有更多的训练数据是有帮助的,但只能达到一定程度。

三元权衡(triple trade-off)(Dietterich 2003)来总结我们的结论,在所有的由实例数据训练的学习算法中,存在以下三种因素之间的平衡:
1)拟合数据的假设的复杂性,即假设类的能力;
2)训练数据的总量
3)在新的实例上的泛化误差

随着训练数据量的增加,泛化误差降低。

如果我们访问训练集以外的数据,我们就能够度量假设的泛化能力,即归纳偏倚的质量。
通过将训练集划分为两个部分来模拟这一过程。一部分做训练(即找出假设),剩下的部分称作验证集(validation set),并用来检验假设的泛化能力。

假定训练集和验证集都足够大,则在验证集上最精确的假设就是最好的假设(即具有最佳归纳偏倚的假设)。这个过程称为交叉验证(cross-validation)。
如:为了找到多项式回归的正确的阶,给定多个不同阶的候选多项式,其中不同阶的多项式对应于不同的花Hi,我们在训练集上求出它们的系数,在验证集上计算它们的误差,并取具有最小验证误差的多项式作为最佳多项式。


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2019-4-1 17:51:07
机器学习,点赞学习不辍!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2019-4-1 18:16:10
为您点赞!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2019-4-1 18:37:04
为您点赞!!!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2019-4-1 18:39:18
点赞
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2019-4-1 18:47:15
向您学习,点赞
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群