django with spark on local machine (windows) 现在,我想使用spark在大数据规模上做到这一点。我设置了一个django项目,并在一个由两台linux机器和hdfs组成的集群上设置了spark。我将每个模型编写为django项目中的一个视图,视图的实现具有使用pyspark编写的代码。我使用pyspark创建了一个到linux集群上的spark</
在独立模式中,主进程使用/usr/bin/java,解析为JVM1.8,工作进程使用/usr/lib/jvm/java/bin/java,解析为1.7。在我的Spark应用程序中,我使用了1.8中引入的一些API。查看堆栈跟踪,出现的一行是:Caused by: java.lang.NoClassDefFoundError: Could not initialize class SomeClassD