我试图保证某个应用程序不会缺少我们的纱线集群上的资源,而不管在那里运行的是什么。<?xml version="1.0"?时设置了spark.scheduler.pool。are backlogged (new desired total will be 1)
17/04/04 11:40:05 WARN cluster.Ya
我在google dataproc上运行apache spark java作业。该作业创建spark上下文,分析日志,最后关闭spark上下文。然后为另一组分析创建另一个spark上下文。有时我会反复收到错误Initial job has not accepted any resources; check your cluster UI to ensure that workers are根据对SO的回答,当启动作业时没有足够的可用资源时,就会发生这种情况。但这通常发生