在spark中使用Hive上下文时出错:对象Hive不是包org.apache.spark.sql的成员

用户名

我正在尝试构造一个Hive Context,它继承自SQLContext。

val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)

我收到以下错误:

error: object hive is not a member of package org.apache.spark.sql
       val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)

我可以从自动补全中清楚地看到蜂巢不存在。有关如何解决此问题的任何想法?这是可用的sparkSQL文档中的示例。

谢谢

亚伦曼

由于配置单元的依赖性,默认情况下它不会编译为spark二进制文件,您必须自己构建它。网站报价

但是,由于Hive具有大量依赖关系,因此它不包含在默认的Spark程序集中。为了使用Hive,您必须先运行sbt/sbt -Phive assembly/assembly(或将-Phive用于maven)。

本文收集自互联网,转载请注明来源。

如有侵权,请联系 [email protected] 删除。

编辑于
0

我来说两句

0 条评论
登录 后参与评论

相关文章

在Intellij中运行Spark时出错:“对象apache不是包org的成员”

值toDS不是org.apache.spark.rdd.RDD的成员

值reduceByKey不是org.apache.spark.rdd.RDD的成员

值联接不是org.apache.spark.rdd.RDD的成员

值toDF不是org.apache.spark.rdd.RDD的成员

对象流不是包org.apache.spark的成员

(火花)对象{name}不是软件包org.apache.spark.ml的成员

对象DataFrame不是包org.apache.spark.sql的成员

pyspark.sql.utils.IllegalArgumentException:“在Windows 10中实例化'org.apache.spark.sql.hive.HiveSessionStateBuild时出错

对象ml不是包org.apache.spark的成员

为什么pyspark失败,并显示“实例化'org.apache.spark.sql.hive.HiveSessionStateBuilder时出错”?

pyspark.sql.utils.IllegalArgumentException:u“实例化'org.apache.spark.sql.hive.HiveSession StateBuilder时出错:”

为什么Spark会失败并显示“值rdf不是org.apache.spark.sql.SparkSession的成员”?

SparkSQL数据帧错误:值显示不是org.apache.spark.sql.DataFrameReader的成员

对象hbase不是包org.apache.spark.sql.execution.datasources的成员

Spark:Split不是org.apache.spark.sql.Row的成员

sbt错误:对象spark不是包org.apache的成员

XGBoost4J-Spark错误-对象dmlc不是软件包org.apache.spark.ml的成员

错误:bulkCopyToSqlDB不是org.apache.spark.sql.DataFrameWriter的成员

Scala错误:值registerTempTable不是org.apache.spark.sql.SchemaRDD的成员

值avro不是org.apache.spark.sql.DataFrameReader的成员

forEach Spark Scala中的错误:值选择不是org.apache.spark.sql.Row的成员

使用蜂巢上下文运行查询时出现Spark-hive异常:org.apache.spark.sql.AnalysisException

错误:值 cassandraFormat 不是 org.apache.spark.sql.DataFrameWriter 的成员

为什么在 spark-shell 中导入 SparkSession 会失败并显示“对象 SparkSession 不是包 org.apache.spark.sql 的成员”?

值 collectAsMap 不是 org.apache.spark.rdd.RDD 的成员

value head 不是 org.apache.spark.sql.Row 的成员

如何解决 Spark 中的“aggregateByKey 不是 org.apache.spark.sql.Dataset 的成员”?

Spark 2.4.3 - Scala 2.12.3 - 对象 apache 不是包 org 的成员