如果我必须添加SBT和Maven依赖项,您能详细说明这个过程吗(我在Google中找不到)import org.apache.spark.SparkContext // create Spark context with Spark configuration
val sc = new SparkContext
在条件语句中结束spark作业的推荐方式是什么?if (isValid(data)) {}Exception in thread "main" java.lang.IllegalStateException: SparkContext has been shutdown
然后它会显示一个堆栈跟踪。sparkContext</
sql_Context = SQLContext(output_df.sparkContext())sql_Context.sql("select * from table1") # or some more complicated query 但是output_df.sparkContext(获得星火DataFrame的sparkContext的正确方法是什么?
我正在Spark中构建一个应用程序,并且希望在类中的方法中使用SparkContext和/或SQLContext,主要用于从文件或SQL查询中提取/生成数据集。例如,我想创建一个T2P对象,它包含收集数据的方法(在本例中需要访问SparkContext):
class T2P (mid: Int, sc: SparkContext, sqlContext: SQLContext作为参数传递给T2P类不起作用,因为SparkContext是不可序列化的(在创建T2P对象时获得task not serial