:
1.3 测试
Spark的local模式, 开箱即用, 直接启动bin目录下的spark-shell脚本
cd /export/server/spark/bin....以此类推也就还会有 shrc, zshrc 这样的文件存在了, 只是 bash 太常用了而已.
2.3 启动anaconda并测试
注意: 请将当前连接node1的节点窗口关闭,然后重新打开,否则无法识别...输入 python -V启动:
base: 是anaconda的默认的初始环境, 后续我们还可以构建更多的虚拟环境, 用于隔离各个Python环境操作, 如果不想看到base的字样, 也可以选择直接退出即可...python目录下的pyspark复制到anaconda的
Library/Python3/site-packages/目录下即可。...请注意,PySpark 需要JAVA_HOME正确设置的Java 8 或更高版本。