我已将csv文件读入pyspark dataframe。现在,如果我在when()子句中应用条件,那么当条件在runtime之前给出时,它会很好地工作。import pandas as pdfrom pyspark.sql import SQLContextfrom pyspark.sql.functions import col
s
它可以在没有聚合或计数的情况下遍历Pyspark groupBy数据帧吗?例如Pandas中的代码: for i, d in df2:Is there a difference in howto iterate groupby in Pyspark or have to use aggregation and count?