通过从,下载预构建的火花版本(例如spark-2.4.5-bin-hadoop2.7.tgz)来安装火花时- Do I need to additionally install pyspark?(I guess no, because I saw the downloaded Spark release co
我按照这个指南一步一步地在我的PC windows 10:上安装PC windows 10: jupyter笔记本电脑。我已经按照指南所说的设置了所有内容,但是当我运行命令"pyspark“时,我会收到以下错误消息:我试图寻找一种解决方案,但我没有发现任何与我类似的案例,其中最相似的是linux上的pyspark。如果有人能解释我需要改变什么才能让它发挥作用,我将是伟大的!如果有人也有一些关于如何