我有一个包含日期时间列的csv文件:"2011-05-02T04:52:09+00:00“。我使用scala,文件被加载到sparkDataFrame中,我可以使用jodas时间来解析日期:import sqlContext.implicits._
val df = new SQLContext(sc).load("com.databricks.spark.csv", Map(&qu
我有一个场景,通过where条件从同一个DataFrame中使用另一个列从DataFrame读取一列,这个值作为IN条件通过,从另一个DataFrame中选择相同的值,我如何在sparkDataFrame中实现。在SQL中,它将类似于:
select distinct(A.date) from table A