/spark在独立主机上提交这个jar文件时,一切正常。当我通过在命令行中将Yarn设置为master切换到集群模式时,我得到了许多在HDFS中找不到文件的错误。这里有一些问题:SparkConf conf = new SparkConf().setMaster("yarn-cluster").setAppName("TibcoMessageConsumer
我在Windows10机器上使用spark-submit执行spark作业时遇到错误。该命令为: c:\workspaces\Spark2Demo>spark-submit --class retail_db.GetRevenuePerOrder --master local .GetRevenuePerOrder.scala:7)
at retail_db.GetRevenuePerOrder.main(GetRevenuePerOrder.scala) 该文件存在