check your cluster UI to ensure that workers are registered and have sufficient memoryspark/bin/spark-submit --master $SPARK_MASTER_URL --executor-memory 8g --driver-memory 8g --name "Test-Task我的设置如下:
SparkConf conf = new SparkConf()
我正在使用spark为HDFS编写一个大文件。基本上,我所做的是连接3个大文件,然后使用toJSON()将结果数据转换为json,然后使用saveAsTextFile将其保存到HDFS。最后要写入的文件大约为4TB。应用程序运行得很慢(正如我所期望的那样?)6小时后,它抛出了一个例外java.lang.IllegalArgumentException:自抑制不允许。详细的故障原因将从监视页面复制到下面:
Job aborted due