我是spark新手,在将.csv文件转换为dataframe时遇到错误。我正在使用pyspark_csv模块进行转换,但给出了一个错误,这里是错误的堆栈跟踪,谁能给我解决这个错误的建议------------------------------------------", line 111, in main File "/usr/spark-1.5.0/python/lib
我是结构化流从Kafka读取数据,写到BigQuery(虽然目前,我写到控制台)。我试图使用foreach (或foreachBatch)对记录进行转换,但是我遇到了问题。/Documents/Technology/spark-3.2.0-bin-hadoop3.2/python/lib/pyspark.zip/pyspark/worker.py", line 609,(ResultTask.scala</e