全部版块 我的主页
论坛 数据科学与人工智能 人工智能 人工智能论文版
448 0
2018-01-26
摘要:集成学习主要通过扰动训练数据集来产生较强泛化能力。研究者们提出了各种各样的方法来实现这一目标,但如何扰动训练数据集以达到最佳的泛化能力并没有被深入研究。本文中,提出了对训练数据集进行扰动的交叉分组(cross-grouping)方法,通过改变交叉因子以实现对训练数据集不同程度的扰动,从而实现当集成规模较小时,得到更强的泛化能力。实验表明,当选择合适的交叉因子时,CG-Bagging泛化能力要强于Bagging和Boosting,略优于Decorate和RandomForests。

原文链接:http://www.cqvip.com//QK/92817X/200803/26833642.html

送人玫瑰,手留余香~如您已下载到该资源,可在回帖当中上传与大家共享,欢迎来CDA社区交流学习。(仅供学术交流用。)

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群