我的错误日志:
错误 -作业失败org.apache.spark.SparkException:找到spark.driver.extraClassPath和SPARK_CLASSPATH。(SparkContext.scala:398) at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext_1(SparkInterpreter.java:440) at org.apa
我正在使用齐柏林飞艇0.7.0运行火花作业。我的齐柏林飞艇是一个独立的安装,而星火安装使用Hortonworks/Ambari (版本2.6)。当我检查星火在安巴里的状态时,它都是绿色的。我想做的任何事情,即使是像sc.version这样简单的事情,都会给出同样的错误: at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:38)
at org.apache</em
at org.apache.zeppelin.dep.DependencyResolver.load(DependencyResolver.java:79)
at org.apache.zeppelin.dep.DependencyResolver.load51,190] ({qtp1786364562-944} InterpreterFactory.java[createInterpretersForNote]:221) - Interpreter org.apache.zepp
我不知道我做错了什么,所以我得到了下面的错误,我应该如何解决它。AppClassLoader.loadClass(Launcher.java:331),java.lang.ClassLoader.loadClass(ClassLoader.java:357),org.apache.zeppelin.spark.SparkInterpreter.open:74) at org.apache.zeppelin.interpreter.LazyOpenInterpreter.open(Lazy