堆栈溢出上的几个帖子有一些响应,其中包含关于如何通过Spark作为JDBC分布式查询引擎访问RDD表的部分信息。因此,关于如何做到这一点,我想问以下问题以获得完整的信息:
在Spark应用程序中,我们需要使用HiveContext注册表吗?或者我们可以只使用SQL上下文吗?我们在哪里以及如何使用HiveThriftServer2.startWithContext?:7077-hiveconf h
我们正在使用Spark 2.3.0创建一个基于Spark的应用程序。我们的Spark作业与HBase交互。在创建JAR时,我们得到以下编译时异常异常: ERROR class file for org.apache.spark.Logging not found此异常发生在代码中,即从HBase表中读取数据使用下面的jar配置/版本,我们能够成功地将<e