,我搞不懂它为什么要这么做,而不是真正地把csv保存到那个位置。如果我对.show数据文件执行了一个df_join (),那么它就会输出正确的外观结果。但是.write没有正常工作。val df_names = spark.read.option("header", "true").csv("/mnt/datalake/raw/names.csv")
val df_addresses= s
期望:当我对给定的数据进行分区时,行将大致均匀地分布到每个分区中。然后,当我将数据写入csv时,得到的n个csv(在本例中是10)的长度类似于相同的长度。现实:当我运行下面的代码时,我发现所有行都在export_results-0.csv中,其余的9个csvs是空的,而不是一些均匀的行分布。import dask.dataframe as dd
im