val df = spark.read.format("csv").load("books.csv")//Here i want to accept parameter spark.stop我想使用spark-submit命令将不同的文件传递给spark.read.format。文件在我的linux box上。} \然而,程序只是尝试从hdfs cluseter的根文件夹中</
我想将csv文件从一台服务器(Unix server A)发送到hdfs目录。基于哪些csv文件,我想将它们放在hdfs中的不同目录中。我有11个csv文件,它们将由unix服务器A上的kafka producer发送给kafka。csv文件的第一个元素将包含一个密钥。我想把第一个元素作为kafka消息的关键字。当它命中kafk