我有下面的查询,它应该找到列值的平均值,并返回给我一个单一数字的结果。05-09' and '2018-05-09'").first().getDouble(0)java.lang.NullPointerException: Value at index 0 in null
at org.apache.spark.sql.Row$class.getAny
Miss Elisabeth Walton",29.0000,"Southampton","St Louis, MO","B-5","24160 L221","2","female" at scala.collection.Iterator$$anon$11.next(Iterator.scala:409)
a
我使用的是SparkSQL 2.2.0。在执行查询时,如: from TB1 group by COL1").explain()
Spark要好得多(在我的例子中快了两倍)。然而,与仅仅比较两个值相比,收集一组不同的值、对其进行排序并最终获取第一个值需要更多的内存和更多的CPU资源(正如MIN应该做的那样)。如何在</