在Spark1.6.0中,我有一个包含职务描述的列的数据框架,如:bartenderemployee...我使用以下方法从该列检索唯一值列表:
val jobs = people.select("Description").distinct().rdd.map(r => r(0).asInstanceOf[people
which is takes after adding a column but that does not contain the sum of all values of one column 我尝试在dataframe中添加一列,该列包含同一dataframe中一列的所有值的总和。例如:在图片中有列- UserID,MovieID,Rating,UserID时间戳。现在我想添加一个名为Sum<