最近对大数据环境安装脚本进行了升级。相比上一个版本,增加了以下功能:
新版本的脚本,已经提交到hive分支中,master分支因为之前的课程原因暂不进行升级,之后测试通过后再进行合并。
附上脚本开源地址:https://github.com/MTlpc/automaticDeploy
大数据环境使用脚本安装时,与之前相比,只有第3步不同。这里直接在一个节点上,执行clusterOperate.sh,便会对集群所有节点进行脚本分发、安装包分发、环境初始化,简化了使用步骤。
链接:https://pan.baidu.com/s/1XxuouuogndEc6vIIiUhyTw
提取码:i4ki
复制这段内容后打开百度网盘手机App,操作更方便哦
unzip frames.zip -d /home/hadoop/automaticDeploy/
/home/hadoop/automaticDeploy/systems/clusterOperate.sh
/home/hadoop/automaticDeploy/hadoop/installHadoop.sh
source /etc/profile
# 在Node01节点执行,初始化NameNode
hadoop namenode -format
# 在Node01节点执行,启动Hadoop集群
start-all.sh
如果有帮助的,记得点赞、关注。在公众号《数舟》中,可以免费获取专栏《数据仓库》配套的视频课程、大数据集群自动安装脚本,并获取进群交流的途径。
我所有的大数据技术内容也会优先发布到公众号中。如果对某些大数据技术有兴趣,但没有充足的时间,在群里提出,我为大家安排分享。