我的Spark脚本遇到了一个小问题。基本上,我有原始数据,在分组和计数之后进行聚合,等等,我希望将输出保存为特定的JSON格式。编辑:当我从源dataframe中选择列名有别名的Array[org.apache.spark.sql.Column]数据时,在试图将行映射到case类时使用列名(实际上是索引case class Result(Name:String)
val r = dm2.map(ro
我有一个要求,在这里,我需要在spark/scala中读取excel文件(具有.xlsx扩展名)。我需要用从excel读取的数据创建一个数据,并在上面应用/写sql查询来做一些分析。我使用com.crealytics.spark.excel库解析excel内容,代码如下所示
val employeesDF.option("addColorColumns", "F