,我需要获取一个Sparkdataframe,它只包含列表中所有列的一行。我正在尝试用返回org.apache.spark.rdd.RDD[Any] = ParallelCollectionRDD[5834] at parallelize at <console>:81的sc.parallelize(myList)来创建一个RDD
但是,我也不能选择该行的特定元素:sc.parallelize(myList).map(line =>
这可能是一个愚蠢的问题,但我有一个表,其中的每一列都包含要传递给变量的值: select sfObject from db.tblwhere Id = {} 我看到的是一个名为sfObject的列,它的预期值为'ValueA‘,我得到一个pyspark.sql.dataframe.DataFrame</e