我对星火如何处理引擎盖下的数据感到非常困惑。例如,当我运行流作业并应用foreachRDD时,其行为取决于变量是从外部范围捕获还是在内部初始化。val sparkConf = new SparkConf() val spark = SparkSession.builder.config$DirectKafkaInputDStreamCheckpointData的对象被序列化,可能是RDD操作关闭的一部分。(sparkConf).getOrCreate()
在spark 1.6中,我们可以使用cassandraSqlContext直接查询cassandra表,如下所示:
cassandraSqlContext.sql("select * from keyspace.tableName我知道spark 2.1没有cassandra上下文,相反它有一个session会话。如果我执行spark.sql("select * from keyspace.tableName"),它会引发关于未解决的关系或表名不存在的错误。adminKeyS