我使用的是EMR 5.0和Spark 2.0.0。我正在尝试使用org.apache.spark.launcher.SparkLauncher从Scala spark应用程序运行子spark应用程序 var handle = new SparkLauncher()
.setAppResource("s3://my-bucket/python_
我最近在JupyterHub上使用了Spark和JupyterHub。我知道在创建EMR之前,我可以将引导程序设置为在每个集群中设置环境,比如Python包/库。但是,如果我已经启动了EMR,那么如何在不重新启动EMR的情况下安装更多的Python包/库?
我搜索并得到了一些答案,我可以通过木星中心的手机安装它。use called when spark.pyspark.virtualenv.en