全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 R语言论坛
3645 7
2016-09-21
用R做大量数据的回归分析的时候才发现的问题。
例如,随机生成了1000000个自变量x和因变量y进行逻辑回归,result<-glm(y~x,family=binomial),为什么得到的result变量竟然有400多m!难道其中是包含了每一步中间过程迭代的结果吗?如果是的话,要怎么只得到想要的部分(系数和P值)呢?
PS,因为电脑的内存有限,在做这样的百万级别的数据分析时发现内存不足了,不是用summary,而是直接跳过得到辣么大的拟合结果那步,希望能得到解决的方法 。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2016-9-21 23:19:01
有人知道这个问题吗
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2016-9-21 23:24:10
philomochi 发表于 2016-9-21 08:04
用R做大量数据的回归分析的时候才发现的问题。
例如,随机生成了1000000个自变量x和因变量y进行逻辑回归, ...
加内存
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2016-9-22 08:22:14
lqj530 发表于 2016-9-21 23:24
加内存
R.NET32位平台,内存不能再加了。我觉得这个问题挺大的,以前没人碰到过吗
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2016-9-22 09:28:39
R 上有些很好处理 big data 的 lm或glm的packages ,如biglm,biglar ,biglasso,bigmemory
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2016-11-25 22:09:15
我也是这个问题,不知道怎么解决
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群