我学的是火种。例如,我正在尝试从sql构建DataFrame
DF=spark.sql("with a as (select ....) select ...")我的sql有点复杂,所以要执行20分钟。我觉得DF是对我的SQL的引用,它意味着当我执行DF.head(10)需要20分钟,下一步DF.count()也需要20分钟等等。我唯一能想到的方法是使用"create“
我是Spark的新手。按照书中的以下示例,我发现下面的命令给出了错误。在Spark中编写代码时,运行Spark-SQL命令的最佳方式是什么?scala> // Use SQL to create another DataFrame containing the accountscala> val acSummary=