全部版块 我的主页
论坛 数据科学与人工智能 大数据分析 spark高速集群计算平台
1629 2
2016-08-05
今日测试一段代码如下:

val data = rawData.map { line =>

     |       val values = line.split(',').map(_.toDouble)

     |       val featureVector = Vectors.dense(values.init)

     |       val label = values.last - 1

     |       LabeledPoint(label, featureVector)

     |     }

整体运行没有错误,当然前提是import了相应的包,但是本人算是折腾帝,尝试着将代码分开写,分开运行,在建立稠密向量时,报错,显示如下:

val n2=Vectors.dense(n1.init)

<console>:34: error: value init is not a member of org.apache.spark.rdd.RDD[Array[Double]]

       val n2=Vectors.dense(n1.init)

提示没有init操作,因为是小白,所以百思不得其解这个问题,还望坛子里的高手能够解答一二,不胜感激!


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2016-8-5 21:32:16
还望高手赐教,小白实在没搞懂为啥不能分开写这段代码!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2016-9-15 15:59:21
没有搞Scala的么!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群