全部版块 我的主页
论坛 数据科学与人工智能 人工智能 人工智能论文版
546 0
2018-01-17
摘要:从多个弱分类器重构出强分类器的集成学习方法是机器学习领域的重要研究方向之一.尽管已有多种多样性基本分类器的生成方法被提出,但这些方法的鲁棒性仍有待提高.递减样本集成学习算法综合了目前最为流行的boosting 与bagging 算法的学习思想,通过不断移除训练集中置信度较高的样本,使训练集空间依次递减,使得某些被低估的样本在后续的分类器中得到充分训练.该策略形成一系列递减的训练子集,因而也生成一系列多样性的基本分类器.类似于boosting 与bagging 算法,递减样本集成学习方法采用投票策略对基本分类器进行整合.通过严格的十折叠交叉检验,在8 个UCI 数据集与7 种基本分类器上的测试表明,递减样本集成学习算法总体上要优于boosting 与bagging 算法.

原文链接:http://www.cqvip.com//QK/91690X/201612/668974560.html

送人玫瑰,手留余香~如您已下载到该资源,可在回帖当中上传与大家共享,欢迎来CDA社区交流学习。(仅供学术交流用。)

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群