为什么我的代码不能像预期的那样覆盖数据库中的数据?我已经使用客户端检查了该表,并且它确实存在(这应该无关紧要)。而且里面也有数据。怎么了?这会不会是内存问题?(commands.scala:68)
at org.apache.spark.sql.execution.command.ExecutedCommandExec.doExecute(commands.scala(RDDOperationScope.<e
我正在使用Databricks运行一个使用Scala (v2.12)的Spark集群(v3.0.1)。我将Scala文件编译为JAR,并使用Databricks UI中的spark-submit运行作业。该函数的返回类型为Array[Array[Double]]。因此,在Scala中,它将如下所示: val result = myListRdd.map(f(_, ...我是