我有一个包含日期时间列的csv文件:"2011-05-02T04:52:09+00:00“。我使用scala,文件被加载到sparkDataFrame中,我可以使用jodas时间来解析日期:import sqlContext.implicits._
val df = new SQLContext(sc).load("com.databricks.spark.csv", Map(&qu
which is takes after adding a column but that does not contain the sum of all values of one column 我尝试在dataframe中添加一列,该列包含同一dataframe中一列的所有值的总和。例如:在图片中有列- UserID,MovieID,Rating,UserID时间戳。现在我想<