java.lang.IllegalArgumentException:无法从空字符串创建路径我使用的是spark版本2.4.7 hadoop版本3.3.0智能hadoop版本jdk 8首先我得到类未找到错误$$anonfun$saveAsTextFile$1.apply$mcV$sp(RDD.scala:1544)
at org.apache.spark.rdd.RDD$$anonfun$saveAsTextFile$1.apply(<
我正在PySpark上工作,在windows 7中编写一个木星笔记本(Python2.7),我有一个名为idSums的pyspark.rdd.PipelinedRDD类型的RDD。在尝试执行idSums.saveAsTextFile("Output")时,我收到以下错误:: org.apache.spark.SparkException: Job a
Spark提供了一种方法saveAsTextFile,可以方便地将RDD[T]文件存储到磁盘或硬盘中。我想反转这个操作。我想知道有没有可以很容易地将文件加载到RDD[T]中的loadFromTextFileclass A extends Serializable {}
val d1:RDD[A] = create_A
d1.saveAsTextFi