我正在尝试构造一个Hive Context,它继承自SQLContext。
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
我收到以下错误:
error: object hive is not a member of package org.apache.spark.sql
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
我可以从自动补全中清楚地看到蜂巢不存在。有关如何解决此问题的任何想法?这是可用的sparkSQL文档中的示例。
谢谢
由于配置单元的依赖性,默认情况下它不会编译为spark二进制文件,您必须自己构建它。网站报价
但是,由于Hive具有大量依赖关系,因此它不包含在默认的Spark程序集中。为了使用Hive,您必须先运行sbt/sbt -Phive assembly/assembly
(或将-Phive用于maven)。
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句