全部版块 我的主页
论坛 数据科学与人工智能 大数据分析 spark高速集群计算平台
3710 5
2016-03-20
求教,sparkR如何读取csv文件?

我尝试时一直报这个错误:
Error: 不是所有的returnStatus == 0都是TRUE
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2016-3-20 22:15:45
官网木有?
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2016-3-20 22:19:48
sc <- sparkR.init(sparkPackages="com.databricks:spark-csv_2.11:1.0.3")
sqlContext <- sparkRSQL.init(sc)

people <- read.df(sqlContext, "./examples/people.csv", "csv")
head(people)
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2016-3-21 22:06:03
无量天尊Spark 发表于 2016-3-20 22:19
sc
> sc <- sparkR.init(sparkPackages="com.databricks:spark-csv_2.11:1.0.3")
Launching java with spark-submit command e:\spark-1.4.1-bin-hadoop2.6\spark-1.4.1-bin-hadoop2.6/bin/spark-submit.cmd  --packages com.databricks:spark-csv_2.11:1.0.3 sparkr-shell C:\Users\ADMINI~1\AppData\Local\Temp\RtmpkjBC4I\backend_port14c4b1617cb
> sqlContext <- sparkRSQL.init(sc)
> people <- read.df(sqlContext, "e:/sample_submission.csv", "csv")
Error: 不是所有的returnStatus == 0都是TRUE
> people <- read.df(sqlContext, "e:/test.csv", "csv")
Error: 不是所有的returnStatus == 0都是TRUE
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2016-3-21 22:14:37
竟然用Windows,并且报的错还是中文,
能换成Linux和英文吗?
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2016-3-22 12:32:05
无量天尊Spark 发表于 2016-3-21 22:14
竟然用Windows,并且报的错还是中文,
能换成Linux和英文吗?
嗯,改天我换个系统试试看
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群