我正在尝试使用主节点和工作节点在本地集群上调试Spark应用程序。我已经成功地使用start-master.sh和it works.But设置了Spark独立集群管理器的主节点和工作节点。我想知道Spark应用程序在spark集群中是如何工作的,所以我想在调试模式下启动集群。)
at org.apache.spark.deploy.master.ui.MasterWebUI.at org.apache.spark.rpc.netty.Inbox
我想在Apache Spark中启用单个集群,我安装了java和scala。我下载了Apache Hadoop2.6的spark并解压缩。901) at org.apache.spark.repl.SparkILoopInit$.savingContextLoader(ScalaClassLoader.scala:135)
at org.apache.spark.rep