全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 R语言论坛
1422 1
2014-06-24
有一个数据文件(out.txt),有100万条记录,大小为946M。用read.table(“out.txt”, header=T)导入R中,存在2个问题:

(1)速度太慢,我的笔记本电脑一般耗时10分钟。不知各位牛人们有没有好的办法。

(2)似乎不能完全导进去,提示错误为:“can not allocate vector of size 7.6Mb”。另外有20个warnings,都是说“reached total allocation of 1535Mb”。但是数据记录只有20万条时没有问题,这是不是电脑的内存不足造成的,还是有别的原因?有什么办法可以解决。

坐等答案。谢谢各位牛人了!

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2014-6-24 10:05:07
顶,我也困惑这个问题

我自己是分成4个文件读入,让后在R中合并,当依然很慢
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群