我可以在spark-shell中成功地运行一个spark作业,但是当它的包通过spark-submit运行时,我得到了一个NoSuchMethodError。谢谢!15/05/28 12:46:46 ERROR Executor: Exception in task 1.0 in stage 0.0 (TID 1) at or
我们的环境/版本Hadoop3.2.3组3.1.3触发了2.3.0CREATE TABLE dw.CLIENTclient_id integer,
client_abbrev当我尝试加入它们时,内部表是空的。来自Hive日志2022-08-01T18:53:39,012 INFO RPC-Handler-1 client.SparkClientImpl:接收结果为07a38056-5ba8-45e0-8783) at org.apache.hadoop.hive.ql.exec.sp