PySpark环境安装
同学们可能有疑问, 我们不是学的Spark框架吗? 怎么会安装一个叫做PySpark呢?
这里简单说明一下:
PySpark: 是Python的库, 由Spark官方提供....其实看名字就能了解大概了, profile 是某个用户唯一的用来设置环境变量的地方, 因为用户可以有多个 shell 比如 bash, sh, zsh 之类的, 但像环境变量这种其实只需要在统一的一个地方初始化就可以了..., 而这就是 profile.bashrcbashrc 也是看名字就知道, 是专门用来给 bash 做初始化的比如用来初始化 bash 的设置, bash 的代码补全, bash 的别名, bash 的颜色...以此类推也就还会有 shrc, zshrc 这样的文件存在了, 只是 bash 太常用了而已.
2.3 启动anaconda并测试
注意: 请将当前连接node1的节点窗口关闭,然后重新打开,否则无法识别...pip install pyspark
#或者,可以从 Conda 本身安装 PySpark:conda install pyspark
2.5.3 [不推荐]方式3:手动下载安装
将spark对应版本下的