我刚开始和斯派克一起玩,我已经在挣扎了。我刚刚下载了Spark的spark-1.6.1-bin-hadoop2.4
并试图打开PySpark Shell ./bin/pyspark
,但不幸的是,我被提示如下:
Error: Could not find or load main class org.apache.spark.launcher.Main
环境:
有什么线索能解决这个问题吗?
,它可以很好地使用Spark1.2.0为Hadoop2.4和更高版本的预构建
发布于 2016-06-05 06:09:16
请检查机器上是否安装了java,并检查lib目录下的所有jar文件是否正常工作。
https://stackoverflow.com/questions/36344805
复制相似问题