Zookeeper集群中只要有过半的节点是正常的情况下,那么整个集群对外就是可用的。正是基于这个特性,要将 ZK 集群的节点数量要为奇数(2n+1),如 3、5、7 个节点)较为合适。
IP | 端口 | 用户 |
---|---|---|
192.168.31.154 | 2181、2881、3881 | dreyer03 |
192.168.31.117 | 2182、2882、3882 | dreyer04 |
192.168.31.146 | 2183、2883、3883 | dreyer05 |
1、 修改每台机器的/etc/hosts 文件,添加 IP 与主机名映射:
1 | # vi /etc/hosts |
---|
增加:
192.168.31.154 dreyer-zk-01
192.168.31.117 dreyer-zk-02
192.168.31.146 dreyer-zk-03
2、 下载或上传 zookeeper-3.4.6.tar.gz 到/home/dreyer/zookeeper 目录:
1 | $ wget http://apache.fayea.com/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz |
---|
3、解压zookeeper安装包,并对照节点号对zookeeper目录进行重命名 解压安装包:
1 | $ tar -zxvf zookeeper-3.4.6.tar.gz |
---|
将服务器1的zookeeper目录重命名为node-01:
1 | $ mv zookeeper-3.4.6 node-01 |
---|
将服务器2的zookeeper目录重命名为node-02:
1 | $ mv zookeeper-3.4.6 node-02 |
---|
将服务器3的zookeeper目录重命名为node-03:
1 | $ mv zookeeper-3.4.6 node-03 |
---|
4、在各个zookeeper节点目录创建data、logs目录
$ CD /家庭/ dreyer03 /动物园管理员/节点-0X /(X代表节点号1,2,3,以下同解)
$ MKDIR数据
$ MKDIR日志
5、将zookeeper/node-0X/conf目录下的zoo_sample.cfg文件拷贝一份,并命名为zoo.cfg
1 | $ cp zoo_sample.cfg zoo.cfg |
---|
6、修改zoo.cfg配置文件 zookeeper/node-01的配置如下:
滴答时间= 2000
initLimit = 10
同步限值为5
DATADIR = /家庭/ dreyer03 /动物园管理员/节点-01 /数据
dataLogDir = /家庭/ dreyer03 /动物园管理员/节点-01 /日志
客户端端口= 2181
server.1 = Dreyer的-ZK-01: 2881:3881
server.2 = Dreyer的-ZK-02:2882:3882
server.3 = Dreyer的-ZK-03:2883:3883
zookeeper/node-02的配置如下:
滴答时间= 2000
initLimit = 10
同步限值为5
DATADIR = /家庭/ dreyer04 /动物园管理员/节点-02 /数据
dataLogDir = /家庭/ dreyer04 /动物园管理员/节点-02 /日志
客户端端口= 2182
server.1 = Dreyer的-ZK-01: 2881:3881
server.2 = Dreyer的-ZK-02:2882:3882
server.3 = Dreyer的-ZK-03:2883:3883
zookeeper/node-03的配置如下:
滴答时间= 2000
initLimit = 10
同步限值为5
DATADIR = /家庭/ dreyer05 /动物园管理员/节点-03 /数据
dataLogDir = /家庭/ dreyer05 /动物园管理员/节点-03 /日志
客户端端口= 2183
server.1 = Dreyer的-ZK-01: 2881:3881
server.2 = Dreyer的-ZK-02:2882:3882
server.3 = Dreyer的-ZK-03:2883:3883
参数说明:
server.1 =德雷尔-ZK-01:2881:3881
server.2 = Dreyer的-ZK-02:2882:3882
server.3 = Dreyer的-ZK-03:2883:3883
A 是一个数字,表示这个是第几号服务器; B 是这个服务器的 IP 地址(或者是与 IP 地址做了映射的主机名); C 第一个端口用来集群成员的信息交换,表示这个服务器与集群中的 Leader 服务器交换信息的端口; D 是在 leader 挂掉时专门用来进行选举 leader 所用的端口。 注意:如果是伪集群的配置方式,不同的 Zookeeper 实例通信端口号不能一样,所以要给它们分配不 同的端口号。
7、在dataDir=/home/dreyer03/zookeeper/node-0X/data下创建myid文件 编辑myid文件,并在对应的IP机器上输入对应的编号,比如说node-01上,myid文件的内容就是1,node-02上,myid的内容就是2,node-03上,myid的内容就是3
1 | $ vi /home/dreyer03/zookeeper/node-01/data/myid #输入1 |
---|
1 | $ vi /home/dreyer04/zookeeper/node-02/data/myid #输入2 |
---|
1 | $ vi /home/dreyer05/zookeeper/node-03/data/myid #输入3 |
---|
8、在每台机器的防火墙中打开要用到的端口,218X、288X、388X 切换到root用户后:
1 | # vi /etc/sysconfig/iptables |
---|
在服务器1号中增加:
##饲养员
-A INPUT -m状态--state NEW -m TCP -p tcp的--dport 2181 -j ACCEPT
-A INPUT -m状态--state NEW -m TCP -p tcp的--dport 2881 -j ACCEPT
-一个INPUT -m状态--state NEW -m tcp -p tcp --direction 3881 -j ACCEPT
在服务器2号中增加:
##饲养员
-A INPUT -m状态--state NEW -m TCP -p tcp的--dport 2182 -j ACCEPT
-A INPUT -m状态--state NEW -m TCP -p tcp的--dport 2882 -j ACCEPT
-一个INPUT -m状态--state NEW -m tcp -p tcp --direction 3882 -j ACCEPT
在服务器3号中增加:
##饲养员
-A INPUT -m状态--state NEW -m TCP -p tcp的--dport 2183 -j ACCEPT
-A INPUT -m状态--state NEW -m TCP -p tcp的--dport 2883 -j ACCEPT
-一个INPUT -m状态--state NEW -m tcp -p tcp --date 3883 -j ACCEPT
以上,防火墙中增加端口后要记得重启防火墙 重启防火墙:
1 | # service iptables restart |
---|
查看防火墙状态:
1 | # service iptables status |
---|
9、启动并测试zookeeper(用普通用户启动,不要用root用户)
1 | $ /home/dreyer03/zookeeper/node-01/bin/zkServer.sh start |
---|
1 | $ /home/dreyer04/zookeeper/node-02/bin/zkServer.sh start |
---|
1 | $ /home/dreyer05/zookeeper/node-03/bin/zkServer.sh start |
---|
注意: zookeeper的启动日志在/bin目录下的zookeeper.out文件 在启动第一个节点后,查看日志信息会看到如下异常:
java.net.ConnectException:连接被拒绝
在java.net.PlainSocketImpl.socketConnect(本机方法)
在java.net.AbstractPlainSocketImpl.doConnect(AbstractPlainSocketImpl.java:339)
在java.net.AbstractPlainSocketImpl.connectToAddress(AbstractPlainSocketImpl.java:200)
在java.net.AbstractPlainSocketImpl.connect(AbstractPlainSocketImpl.java:182)
在java.net.SocksSocketImpl.connect(SocksSocketImpl.java:392)
在java.net.Socket.connect(Socket.java:579)
在org.apache。 zookeeper.server.quorum.QuorumCnxManager.connectOne(QuorumCnxManager.java:368)
在org.apache.zookeeper.server.quorum.QuorumCnxManager.connectAll(QuorumCnxManager.java:402)
在org.apache.zookeeper.server.quorum.FastLeaderElection.lookForLeader(FastLeaderElection.java:840)
在org.apache.zookeeper.server.quorum.QuorumPeer.run(QuorumPeer.java:762)
2016年7月30日17时13分:16.032 [本身份识别码:1] - INFO [仲裁对等体[本身份识别码= 1] / 0:0:0:0:0:0:0:0:2181:几乎领导人选举@ 849] -通知超时:51200
这是正常的,因为配置文件中配置了此节点是属于集群中的一个节点,zookeeper集群只有在过半的节点是正常的情况下,此节点才会正常,它是一直在检测集群其他两个节点的启动的情况。 那在我们启动第二个节点之后,我们会看到原先启动的第一个节点不会在报错,因为这时候已经有过半的节点是正常的了。
10、查看zookeeper的状态
1 | $ /home/dreyer03/zookeeper/node-01/bin/zkServer.sh status |
---|
会看到输出信息:
默认情况下启用JMX
使用配置:/home/dreyer03/zookeeper/node-01/bin/../conf/zoo.cfg
时尚:关注
follower表示此节点为从节点;leader表示此节点为主节点
11、停止zookeeper进程
1 | $ /home/dreyer04/zookeeper/node-02/bin/zkServer.sh stop |
---|
在我们停止主节点之后,我们查看另外另个从节点的状态可以看到,原先的一个从节点会被重新选举为主节点。
12、设置zookeeper开机启动 编辑node-01、node-02、node-03节点所在服务器的/etc/rc.local文件,分别加入:
1 | su - dreyer03-c '/home/dreyer03/zookeeper/node-01/bin/zkServer.sh start' |
---|
1 | su - dreyer04-c '/home/dreyer04/zookeeper/node-02/bin/zkServer.sh start' |
---|
1 | su- dreyer05-c '/home/dreyer05/zookeeper/node-03/bin/zkServer.sh start |
---|