下载并安装 Virtual Box,准备并安装 3 台 CentOS 7.2 的虚拟机,主机名命名为 Node01、Node02、Node03。
虚拟机的安装可以使用纯系统镜像,安装后配置主机名。但过程会比较繁琐,学习环境讲求开箱即用,尽量少地在环境上花费时间,否则会打击学习的热情。所以,也可以直接导入已经配置好的虚拟机镜像文件,方便使用。
使用纯镜像安装,下附 CentOS 镜像下载地址:
推荐直接导入虚拟机镜像文件,下附虚拟机镜像下载地址:
1. 下载虚拟机镜像文件:
2. 打开 Virtual Box,选择导入虚拟电脑:
3. 选择文件位置,进行导入:
4. 配置虚拟机,自定义将虚拟机文件存放到指定目录,然后点击确定,完成导入:
5. 依次导入 Node01、Node02、Node03:
6. 开启虚拟机,使用 root/123456 进行登录:
7. 修改虚拟机 IP 地址:
vim /etc/sysconfig/network-scripts/ifcfg-enp0s3
8. 使用 XShell,或者其它远程 SSH Linux 登录工具进行远程连接虚拟机:
1. 下载并上传自动化安装脚本 automaticDeploy.zip 到虚拟机 Node01 中。
wget https://github.com/MTlpc/automaticDeploy/archive/master.zip
2. 解压 automaticDeploy.zip 到 /home/hadoop/ 目录下:
mkdir /home/hadoop/
unzip master.zip -d /home/hadoop/
mv /home/hadoop/automaticDeploy-master /home/hadoop/automaticDeploy
3. 更改自动化安装脚本的 frames.txt 文件,配置组件的安装节点信息(如无特殊要求,默认即可)。
4. 编辑自动化安装脚本的 configs.txt 文件,配置 MySQL、Keystore 密码信息(如无特殊要求,默认即可,末尾加 END 表示结束)。
5. 编辑 host_ip.txt 文件,将 3 台虚拟机节点信息添加进去(需自定义进行修改):
6. 对 /home/hadoop/automaticDeploy/ 下的 hadoop、systems 所有脚本添加执行权限:
chmod +x /home/hadoop/automaticDeploy/hadoop/* /home/hadoop/automaticDeploy/systems/*
1. 下载 frames.zip 包,里面包含大数据组件的安装包,并上传到 Node01 中:
2. 将 frames.zip 压缩包,解压到/home/hadoop/automaticDeploy 目录下:
unzip frames.zip -d /home/hadoop/automaticDeploy/
3. 将自动化脚本分发到其它两个节点:
# 需提前在另外两个节点创建 /home/hadoop 目录(此时还未配置 hosts,需将 node02\node03 替换为对应 IP)
ssh root@node02 "mkdir /home/hadoop"
ssh root@node03 "mkdir /home/hadoop"
scp -r /home/hadoop/automaticDeploy root@node02:/home/hadoop/
scp -r /home/hadoop/automaticDeploy root@node03:/home/hadoop/
4. 依次在各个节点执行 systems/batchOperate.sh 脚本,完成环境初始化。
/home/hadoop/automaticDeploy/systems/batchOperate.sh
为了避免脚本中与各个节点的 SSH 因为环境问题,执行失败,需要手动测试下与其它节点的 SSH 情况,如果失败,则手动添加。
失败后重新添加 SSH:
ssh-copy-id node02
5. 在各个节点执行脚本,安装 Hadoop 集群:
/home/hadoop/automaticDeploy/hadoop/installHadoop.sh
source /etc/profile
# 在 Node01 节点执行,初始化 NameNode
hadoop namenode -format
# 在 Node01 节点执行,启动 Hadoop 集群
start-all.sh
6. 使用本地浏览器访问 node01:50070,成功则搭建成功。
7. 安装其它组件,在所有节点运行以下命令,未规划安装节点会自动跳过安装。
/home/hadoop/automaticDeploy/hadoop/installMysql.sh
/home/hadoop/automaticDeploy/hadoop/installHive.sh
/home/hadoop/automaticDeploy/hadoop/installSqoop.sh
/home/hadoop/automaticDeploy/hadoop/installPresto.sh
/home/hadoop/automaticDeploy/hadoop/installAzkaban.sh
/home/hadoop/automaticDeploy/hadoop/installYanagishima.sh
8. 在所有虚拟机节点 source 环境变量文件:
source /etc/profile