我在本地的Windows10机器上运行了Spark 2.3.1。我还没有修改过spark-env或spark-defaults中的任何设置。当我尝试使用spark-shell连接到spark时,我得到了一个failed to connect to master localhost:7077警告。这是从控制台复制的完整错误消息:-
`C:\Users\abhi331\opt\spark\spark-2.3.1-bin-hadoop2.7\bin>spark<
我正在尝试使用SAP Spark Controller在我们的SAP HANA数据库上从Cloudera的Quick Start Hadoop发行版(我们的Linux VM )中获取一些数据。每次我在HANA中触发作业时,它都会卡住,并且我看到SPARK Controller的日志文件中每隔10-15秒就会连续记录以下警告,除非我终止该作业。WARN org.apache.spark.scheduler.cluster.YarnScheduler: Initial job has not accepted any reso