谷歌确实有很多解决这个问题的方法,但不幸的是,即使在尝试了所有的可能性之后,我也无法让它发挥作用,所以请耐心等待,看看是否有什么东西能打动你。现在,当我尝试在笔记本中运行任何RDD操作时,会引发以下错误 /usr/bin/python: No module named pyspark
PYTHONPATHhadoop-xxxx/nm-local-dir/usercache/xxxx/filecache/33
我在一个使用YARN的Hadoop集群上使用PySpark (解释为)运行JupyterNotebook服务器。我注意到,每个通过新笔记本启动的Spark应用程序,在Spark Web UI中都显示为一个名为"PySparkShell“的应用程序(对应于"spark.app.name”配置)。我的问题是,有时我有很多笔记本在Jupyter中运行,但它们都以相同的通用名称"PySparkShell“出现在Spark的Web