我已经安装了一个ApacheSpark0.9.0集群,在这里我试图部署一个从HDFS读取文件的代码。这段代码抛出一个警告,最终作业失败。这是代码
/**
* running the code would fail
* with a warning
* Initial job has not accepted any resources; check your cluster UI to ensure that
* workers are registered and have sufficient memory
*/
object Main extends App {
val sconf = new SparkConf()
.setMaster("spark://labscs1:7077")
.setAppName("spark scala")
val sctx = new SparkContext(sconf)
sctx.parallelize(1 to 100).count
}下面是警告消息
初始作业未接受任何资源;请检查群集用户界面,以确保工作人员已注册并拥有足够的内存。
如何摆脱这个或我错过了一些配置。
发布于 2014-02-11 08:13:18
看来火花公子主人不能为这个任务指派任何工人。要么工人没有开始工作,要么他们都很忙。
检查主节点上的Spark (默认情况下由SPARK_MASTER_WEBUI_PORT在spark-env.sh中指定端口,8080 )。它应该是这样的:

为使集群正常运作:
https://stackoverflow.com/questions/21677142
复制相似问题