请注明:姓名-公司-职位
以便审核进群资格,未注明则拒绝
jmq19950824 发表于 2018-10-9 09:27 楼主,Stacking方法我觉得并不是说所有情况都是最优的,举个例子:比如你用Stacking思路将Random Forest和X ...
阿扁V5 发表于 2018-10-9 10:37 你说的稳定是不是类比于集成学习?但是RF和XGB本身都是集成学习的方法,对再次集成到底有多大效果好像确实 ...
jmq19950824 发表于 2018-10-9 10:40 现实一点的问题,现在国内外单个模型(Logistic KNN SVM NN等)进行集成——AdaBoost XGBoost等,相关的论 ...
爱帮帮 发表于 2018-10-15 16:15 楼主,你好,请问你最后用的什么策略,我也遇到跟你一样的情况。本来想提升一点点的,结果降了。
阿扁V5 发表于 2018-10-16 10:00 后面虽然有一点点提升,但应用效果忽略不计,免费午餐原理就没有stacking了,不过可以试试多做几层,或许 ...
爱帮帮 发表于 2018-10-16 21:25 我后来查了一些资料,像RF、XGB等他们的结果具有随机性,我是多跑几次取的平均值,略有提升。
阿扁V5 发表于 2018-10-17 10:19 可以设置随机数种子,使得模型可以复现,不然怎么应用