全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 数据分析与数据挖掘
22818 82
2018-06-08
        如题,最近参加过某厂的比赛,自己公司一直在做二分类的问题,然后,无论从网上看到的案例还是kaggle的一些比赛里,大部分都用到了集成学习,比如bagging、boost,也用到stacking这样的方法来融合模型,都说效果很好。可是本人也尝试了第一层构建LR/randomforest/SVM/knn/NB等算法,并以stacking方法融合生成了几个特征,第二层以xgboost构建最终的输出模型,发现效果跟直接在原特征上使用xgboost基本上差不离,甚至还略有下降,求各位有经验的大神来指点指点讨论,谢谢!
附本人使用的stacking方法原理文章及基本框架图:

Kaggle机器学习之模型融合(stacking)心得
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2018-6-8 14:04:11
欢迎大咖来讨论
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2018-6-8 14:40:59
总结李航统计学习法
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2018-6-13 08:32:57
感谢分享
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2018-6-13 19:08:36
谢谢分享
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2018-6-14 01:07:38
感谢分享
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群