值toDS不是org.apache.spark.rdd.RDD的成员

用户名

我正在尝试编写将RDD转换为数据集的示例Apache Spark程序。但是在此过程中,我遇到了编译时错误。

这是我的示例代码和错误:

码:

import org.apache.spark.SparkConf
import org.apache.spark.rdd.RDD
import org.apache.spark.SparkContext
import org.apache.spark.sql.Dataset

object Hello {

  case class Person(name: String, age: Int)

  def main(args: Array[String]){
    val conf = new SparkConf()
      .setAppName("first example")
      .setMaster("local")
    val sc = new SparkContext(conf)
    val peopleRDD: RDD[Person] = sc.parallelize(Seq(Person("John", 27)))
    val people = peopleRDD.toDS
  }
}

我的错误是:

value toDS is not a member of org.apache.spark.rdd.RDD[Person]

我添加了Spark核心和Spark SQL jar。

我的版本是:

星火1.6.2

斯卡拉2.10

姆斯里尼瓦斯

Spark版本<2.x

toDS 可用于 sqlContext.implicits._

val sqlContext = new SQLContext(sc);
import sqlContext.implicits._
val people = peopleRDD.toDS()

Spark版本> = 2.x

val spark: SparkSession = SparkSession.builder
  .config(conf)
  .getOrCreate;

import spark.implicits._
val people = peopleRDD.toDS()

HIH

本文收集自互联网,转载请注明来源。

如有侵权,请联系 [email protected] 删除。

编辑于
0

我来说两句

0 条评论
登录 后参与评论

相关文章

值联接不是org.apache.spark.rdd.RDD的成员

值toDF不是org.apache.spark.rdd.RDD的成员

值 collectAsMap 不是 org.apache.spark.rdd.RDD 的成员

值reduceByKey不是org.apache.spark.rdd.RDD的成员

值查找不是org.apache.spark.rdd.RDD的成员

sortBy不是org.apache.spark.rdd.RDD的成员

值联接不是org.apache.spark.rdd.RDD [(Long,T)]的成员

Scala:出现错误 - mapPartitionsWithIndex 不是 org.apache.spark.rdd.RDD[Int] 的成员

saveAsTextFile不是Array [String] spark RDD的成员

Apache Spark RDD拆分“ |”

Apache Spark RDD替代

Scala-如何过滤RDD org.apache.spark.rdd.RDD [String]]

Apache Spark: reading RDD from Spark Cluster

Apache Spark:按键将RDD对拆分为多个RDD以保存值

Apache Spark-使用2个RDD:RDD的补充

无法从现有 RDD 创建 RDD - Apache Spark

Spark MLlib如何将org.apache.spark.rdd.RDD [Array [Double]]转换为Array [Double]

等效于Apache Spark RDD中的getLines

Apache Spark-如何压缩多个RDD

Apache Spark:指向父RDD的引用指针

apache spark-从RDD迭代跳过

如何减少RDD在Apache Spark中的工作

使用Scala将org.apache.spark.mllib.linalg.Vector RDD转换为Spark中的DataFrame

值avro不是org.apache.spark.sql.DataFrameReader的成员

Zeppelin java.lang.NoClassDefFoundError:无法初始化类org.apache.spark.rdd.RDDOperationScope $

如何将org.apache.spark.ml.linalg.Vector的RDD转换为数据集?

Spark:将RDD(键,列表)扩展为RDD(键,值)

在Apache Spark中,如何按两个共享值对RDD的所有行进行分组?

Apache Spark Scala:如何在按键分组rdd时保持值的顺序