全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 R语言论坛
5273 5
2016-04-28
做分类模型的时候,lr也好,randomforest也好,跑同样的数据集(三十万行,4-5列),几秒到几十秒模型就好了,然后用svm就等几分钟都没反应。记得两三年前用这几种模型感觉速度差不多啊,哪位牛人了解?代码很简单,就是
library(e1071)
svm <- svm( y ~., data = train )

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2016-4-29 05:54:56
complicated 发表于 2016-4-28 11:01
做分类模型的时候,lr也好,randomforest也好,跑同样的数据集(三十万行,4-5列),几秒到几十秒模型就好了 ...
在百万级别数据面前,svm比RF慢太多了,算法决定的,与用那个包关系不大。回想下你以前比较时用的数据量有这么大吗?
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2016-4-29 09:11:18
那是显然的,SVM
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2016-4-29 10:45:21
30萬行,什麼算法幾秒鐘算好,大神,來,我門聊聊。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2016-5-4 08:56:10
luo000tuo 发表于 2016-4-29 10:45
30萬行,什麼算法幾秒鐘算好,大神,來,我門聊聊。
亲,xgboost,快到想哭~~
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2016-5-4 09:01:47
lqj530 发表于 2016-4-29 05:54
在百万级别数据面前,svm比RF慢太多了,算法决定的,与用那个包关系不大。回想下你以前比较时用的数据量有 ...
谢谢您的指点,之前的数据量没太关注,不过想想可能确实不大。。。因为现在面对的场景动不动就上百万数据才出现这样的问题吧,难道说SVM在这个量级的数据面前就很难应用了?觉得它‘升维’的思路不错,说不定效果能比其他算法好,但是太慢这个不好忍啊~
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群