前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Spark HA集群搭建

Spark HA集群搭建

作者头像
CoderJed
发布2018-09-13 10:44:33
1.4K0
发布2018-09-13 10:44:33
举报
文章被收录于专栏:Jed的技术阶梯Jed的技术阶梯

环境准备


1. 集群规划

2. 具体步骤

(1) 把安装包上传到hadoop01服务器并解压

代码语言:javascript
复制
[hadoop@hadoop01 soft]$ tar zxvf spark-2.2.0-bin-hadoop2.7.tgz -C /home/hadoop/apps/

# 解压后如果感觉安装目录的名称太长可以修改一下
[hadoop@hadoop01 soft]$ cd /home/hadoop/apps/
[hadoop@hadoop01 apps]$ mv spark-2.2.0-bin-hadoop2.7 spark-2.2.0

(2) 修改spark-env.sh配置文件

代码语言:javascript
复制
# 把SPARK_HOME/conf/下的spark-env.sh.template文件复制为spark-env.sh
[hadoop@hadoop01 apps]$ cd spark-2.2.0/conf
[hadoop@hadoop01 conf]$ mv spark-env.sh.template spark-env.sh

# 修改spark-env.sh配置文件,添加如下内容
[hadoop@hadoop01 conf]$ vim spark-env.sh 

# 配置JAVA_HOME,一般来说,不配置也可以,但是可能会出现问题,还是配上吧
export JAVA_HOME=/usr/local/java/jdk1.8.0_73
# 一般来说,spark任务有很大可能性需要去HDFS上读取文件,所以配置上
# 如果说你的spark就读取本地文件,也不需要yarn管理,不用配
export HADOOP_CONF_DIR=/home/hadoop/apps/hadoop-2.7.4/etc/hadoop

# 每一个Worker最多可以使用的cpu core的个数,我虚拟机就一个...
# 真实服务器如果有32个,你可以设置为32个
export SPARK_WORKER_CORES=1
# 每一个Worker最多可以使用的内存,我的虚拟机就2g
# 真实服务器如果有128G,你可以设置为100G
export SPARK_WORKER_MEMORY=1g

# 在非HA配置中,配置了SPARK_MASTER_HOST和SPARK_MASTER_PORT
# HA就不用了,让Zookeeper来管理
# 设置zookeeper集群的地址,这个配置有点长,但一定要写到一行
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop01:2181,hadoop02:2181,hadoop03:2181 -Dspark.deploy.zookeeper.dir=/spark/ha"

(3) 修改slaves配置文件,添加Worker的主机列表

代码语言:javascript
复制
[hadoop@hadoop01 conf]$ mv slaves.template slaves
[hadoop@hadoop01 conf]$ vim slaves

# 里面的内容原来为localhost
hadoop01
hadoop02
hadoop03
hadoop04

(4) 把SPARK_HOME/sbin下的start-all.sh和stop-all.sh这两个文件重命名

比如分别把这两个文件重命名为start-spark-all.sh和stop-spark-all.sh

原因:

如果集群中也配置HADOOP_HOME,那么在HADOOP_HOME/sbin目录下也有start-all.sh和stop-all.sh这两个文件,当你执行这两个文件,系统不知道是操作hadoop集群还是spark集群。修改后就不会冲突了,当然,不修改的话,你需要进入它们的sbin目录下执行这些文件,这肯定就不会发生冲突了。我们配置SPARK_HOME主要也是为了执行其他spark命令方便。

代码语言:javascript
复制
[hadoop@hadoop01 conf]$ cd ../sbin
[hadoop@hadoop01 sbin]$ mv start-all.sh start-spark-all.sh
[hadoop@hadoop01 sbin]$ mv stop-all.sh stop-spark-all.sh

(5) 把spark安装包分发给其他节点

代码语言:javascript
复制
[hadoop@hadoop01 apps]$ scp -r spark-2.2.0 hadoop02:`pwd`
[hadoop@hadoop01 apps]$ scp -r spark-2.2.0 hadoop03:`pwd`
[hadoop@hadoop01 apps]$ scp -r spark-2.2.0 hadoop04:`pwd`

(6) 在集群所有节点中配置SPARK_HOME环境变量

代码语言:javascript
复制
[hadoop@hadoop01 conf]$ vim ~/.bash_profile

export SPARK_HOME=/home/hadoop/apps/spark-2.2.0
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

[hadoop@hadoop01 conf]$ source ~/.bash_profile

# 其他节点也都配置...

(7) 启动Zookeeper集群

代码语言:javascript
复制
[hadoop@hadoop01 ~]$ zkServer.sh start

# 其他zookeeper节点也要启动...
# 最好也启动hadoop集群

(8) 在hadoop01节点启动master进程

代码语言:javascript
复制
[hadoop@hadoop01 conf]$ start-master.sh

(9) 在hadoop02节点启动master进程

代码语言:javascript
复制
[hadoop@hadoop02 ~]$ start-master.sh

(10) 访问WEB页面查看哪个是ALIVE MASTER

(11) 在ALIVE MASTER节点启动全部的Worker节点

代码语言:javascript
复制
[hadoop@hadoop01 ~]$ start-slaves.sh

(12) 验证集群高可用

正常的进程显示:

挂掉Active Master

代码语言:javascript
复制
[hadoop@hadoop01 ~]$ jps
5873 Jps
5125 QuorumPeerMain
5639 Master
5752 Worker
[hadoop@hadoop01 ~]$ kill -9 5639

hadoop01已经不能访问了:

hadoop02变成了Active Master

启动hadoop01的master进程

代码语言:javascript
复制
[hadoop@hadoop01 ~]$ start-master.sh

hadoop01变成了Standby Master:

spark HA集群搭建成功!

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.01.10 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. 集群规划
  • 2. 具体步骤
    • (1) 把安装包上传到hadoop01服务器并解压
      • (2) 修改spark-env.sh配置文件
        • (3) 修改slaves配置文件,添加Worker的主机列表
          • (4) 把SPARK_HOME/sbin下的start-all.sh和stop-all.sh这两个文件重命名
            • (5) 把spark安装包分发给其他节点
              • (6) 在集群所有节点中配置SPARK_HOME环境变量
                • (7) 启动Zookeeper集群
                  • (8) 在hadoop01节点启动master进程
                    • (9) 在hadoop02节点启动master进程
                      • (10) 访问WEB页面查看哪个是ALIVE MASTER
                        • (11) 在ALIVE MASTER节点启动全部的Worker节点
                          • (12) 验证集群高可用
                          领券
                          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档