安装星火似乎有两种方法。通过从,下载预构建的火花版本(例如spark-2.4.5-bin-hadoop2.7.tgz)来安装火花时
- do I need to additionally install `java` command- Do I need to additionally install scala compiler?在通过运行pip install pyspark安装Spark时,是否已经为pip install pyspark和Scala
我无法通过shell脚本查询spark中的表。但是如果我通过命令行运行,我就能得到结果。当我在shell中插入这些命令并尝试运行时,出现了问题。已创建shell脚本: vi test.sh 在sparkshell命令下插入 火花壳 val results =sqlContext.sql("SELECT * from table_name ")results.show() 它正在进入sparkshell<