我在google dataproc上运行apache spark java作业。该作业创建spark上下文,分析日志,最后关闭spark上下文。然后为另一组分析创建另一个spark上下文。这种情况会持续50-60次。有时我会反复收到错误Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources。 根据对SO的回答,当启动作业时没有足够的可用资源时,就会发生这种情况。但这通常发生在工作中途
如果我有一个简单的for服务器来响应一些restful HTTP请求,swarm似乎是一个很好的选择,因为如果我需要水平扩展我的for服务器,我只需要使用docker service scale,swarm但是如果服务有自己的集群机制(Redis,elastic search?)呢?不能简单的通过docker服务规模`扩容。