全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 数据分析与数据挖掘
1221 0
2014-03-12
往Hadoop里面添加数据是不是有大小限制呢?
超过1G的数据就传不进去是吗?
大家看看这个矩阵是16000*10的小矩阵
很快就显示Successfully loaded
昨天我传的一个16000000*10的大矩阵传了很久 最后显示killed
退出了rhadoop

而且16000000*10的大矩阵其实也就不到1.2G 也不能算很大吧
请各位大神帮忙看看啊
为啥对于三个节点的hadoop集群来说
1.2G的大矩阵都传不上去呢??

我的每个节点都有4G内存的



二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群