在使用SparklyR和Spark 2.0.2调用逻辑回归后,我在Spark上得到以下错误。ml_logistic_regression(Data, ml_formula)Error: org.apache.spark.SparkException: Job aborted due to stage failure: Task
13 in stage/spark/sql
将现有应用程序从Spark1.6迁移到Spark2.2*(最终)会带来错误“org.apache.spark.SparkException:任务不可序列化”。为了演示同样的错误,我过度简化了代码。一个固有的问题与Spark2.2返回数据集而不是dataframe这一点有关。[String] in Scala Spark var d1 = hive.executeQuery(st)
d1: org.apache.spark</