我正在尝试以集群模式在kubernetes上的Spark上运行DL作业,并得到错误java.lang.UnsatisfiedLinkError:__strncpy_chk: symbol not found这是完整的错误堆栈。Exception in thread "main" java.lang.UnsatisfiedLinkError:
/tmp/dl
我遵循了下面的说明,除了minicube之外,我使用了Google平台Kubernetes集群:(Spark2.3.2)
.resources; check your cluster UI to ensure that workers are registered and have sufficient resourceskubectl scale deployment
我正在配置Zeppelin 0.8在Kubernetes上运行,我的spark集群在相同的名称空间中。问题是,当我在spark解释器设置中提到spark master时,我的代码因错误而停止工作, java.lang.RuntimeException: SPARK_HOME is not specifiednon-local mode, if you specify it in z