全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 R语言论坛
1964 4
2010-05-14
数据量太大了,担心全部载不进内存,能否一行行读入?好像sas是可以的。
请高手指教,谢谢!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2010-5-15 09:10:44
你是想读入一行处理一行,然后再删除它吧?当然可以了,不过既然这样,还不如直接先把数据库分成几个小数据库再运算。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2010-5-15 17:00:57
可以的 可以读入的大小受到计算机硬件的限制
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2010-5-15 23:12:28
因为文件实在太大了,如果一行行读入,根本不占内存,就是费cpu。
解决方案:readline函数
示例:
output<-file("D:/Rdata/output", "w")
con <- file("D:\\Rdata\\input")
open(con)
while (TRUE)
{
   line <- readLines(con, n=1)
   if (length(line) == 0) break
   cat(line, file = output,sep="\n")
}
close(con)
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2010-5-16 21:06:32
楼上高手啊
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群