前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >ActiveMQ+Zookeeper集群配置文档

ActiveMQ+Zookeeper集群配置文档

作者头像
HUC思梦
发布2020-09-03 15:26:11
1.1K0
发布2020-09-03 15:26:11
举报

Zookeeper + ActiveMQ 集群整合配置文档

一:使用ZooKeeper实现的MasterSlave实现方式

是对ActiveMQ进行高可用的一种有效的解决方案, 高可用的原 理:使用ZooKeeper(集群)注册所有的ActiveMQ Broker。只有其中的一个Broker可以对外提供服务( 也就是Master节点) ,其 他的Broker处于待机状态,被视为Slave。如果Master因故障而不能提供服务, 则利用ZooKeeper的内部选举机制会从Slave中选举出一个Broker充当Master节 点,继续对外提供服务。 官网文档如下: http://activemq.apache.org/replicated-leveldb-store.html 二:部署方案, ActiveMQ集群环境准备: ( 1) 首先我们下载apache-activemq-5.11.1- bin.tar.gz,到我们的一台主节点上去,然后我们在( 192.168.1.111一个节点 上实现集群即可) ( 2) Zookeeper方案

主机IP

消息端口

通信端口

节点目录/usr/local/下

192.168.1.111

2181

2888:3888

zookeeper

192.168.1.112

2181

2888:3888

zookeeper

192.168.1.113

2181

2888:3888

zookeeper

( 3) ActiveMQ方案

主机IP

集群通信端口

消息端口

控制台端口

节点目录/usr/local/下

192.168.1.111

62621

51511

8161

activemq-cluster/node1/

192.168.1.111

62622

51512

8162

activemq-cluster/node2/

192.168.1.111

62623

51513

8163

activemq-cluster/node3/

1:首先搭建zookeeper环境

在192.168.1.111节点下software下,解压zookeeper-3.4.5.tar.gz文件,然后改名,操作如下:(在三台机器上都进行这样的配置)

命令: mv zookeeper-3.4.5 zookeeper

配置环境变量:vim /etc/profile

添加:export ZOOKEEPER_HOME=/usr/local/zookeeper,并添加PATH

   使环境变量生效:source /etc/profile

然后:cd zookeeper/conf

   mv zoo_sample.cfg zoo.cfg

   vi zoo.cfg

找到datadir修改为:/usr/local/zookeeper/data

在最下面添加:server.0=192.168.1.111:2888:3888        server.1=192.168.1.112:2888:3888        server.2=192.168.1.113:2888:3888

建立zookeeper/data文件夹,并cd进入

执行vim myid

第一行添加0即可

在112中添加1,113中添加2

搭建完成

三台机器上运行:zkServer.sh start

任意一台运行:zkCli.sh可以连接上客户端

2:继续搭建activemq环境 ( 1) 在192.168.1.111节点下,创建/usr/local/activemq-cluster文件夹,解压apache-activemq-5.11.1- bin.tar.gz文件,然后对解压好的文件改名,操作如下: 1 命令: mkdir /usr/local/activemq-cluster 2 命令: cd software/ 3 命令: tar -zxvf apache-activemq-5.11.1-bin.tar.gz -C /usr/local/activemq-cluster/ 4 命令: cd /usr/local/activemq-cluster/ 5 命令: mv apache-activemq-5.11.1/ node1 如此操作,再次反复解压apache-activemq-5.11.1- bin.tar.gz文件到/usr/local/activemqcluster/下,建立node2和node3文件夹,如下:

( 2) 那我们现在已经解压好了三个mq节点也就是node1、 node2、 node3,下面 我们要做的事情就是更改每个节点不同的配置和端口(由于是在一台机器上实 现集群)。 1 修改控制台端口(默认为8161) ,在mq安装路径下的conf/jetty.xml进 行修改即可。(三个节点都要修改,并且端口都不同) 1命令: cd /usr/local/activemq-cluster/node1/conf/ 2命令: vim /usr/local/activemq-cluster/node1/conf/jetty.xml

三个节点都需要修改为8161、8162、8163!!! 2 集群配置文件修改:我们在mq安装路径下的conf/activemq.xml进行修 改其中的持久化适配器,修改其中的bind、 zkAddress、 hostname、 zkPath。 然后也需要修改mq的brokerName,并且每个节点名称都必须相同。 命令: vim /usr/local/activemq-cluster/node1/conf/activemq.xml 第一处修改: brokerName=”activemq-cluster”(三个节点都需要修改)

第二处修改:先注释掉适配器中的kahadb

第三处修改:添加新的leveldb配置如下(三个节点都需要修改):Node1:<persistenceAdapter><!--kahaDB directory="{activemq.data}/kahadb"/ --><replicatedLevelDBdirectory="{activemq.data}/kahadb"/ --><replicatedLevelDBdirectory="

Ok,到此为止,我们的activemq集群环境已经搭建完毕! 三:测试启动activemq集群: 第一步:启动zookeeper集群,命令: zkServer.sh start 第二步:启动mq集群:顺序启动mq:命令如下: /usr/local/activemq-cluster/node1/bin/activemq start(关闭stop) /usr/local/activemq-cluster/node2/bin/activemq start(关闭stop) /usr/local/activemq-cluster/node3/bin/activemq start(关闭stop) 第三步:查看日志信息: tail -f /usr/local/activemq-cluster/node1/data/activemq.log tail -f /usr/local/activemq-cluster/node2/data/activemq.log tail -f /usr/local/activemq-cluster/node3/data/activemq.log 如果不报错,我们的集群启动成功,可以使用控制台查看! 第四步:集群的brokerUrl配置进行修改即可: failover:(tcp://192.168.1.111:51511,tcp://192.168.1.111:51512,tcp://1 92.168.1.111:51513)?Randomize=false /usr/local/activemq-cluster/node1/bin/activemq stop /usr/local/activemq-cluster/node2/bin/activemq stop /usr/local/activemq-cluster/node3/bin/activemq stop zkServer.sh stop 第四:负载均衡配置如下: 集群1链接集群2: <networkConnectors> <networkConnector uri="static:(tcp://192.168.1.112:51514,tcp://192.168.1.112:51515,tcp://192.168.1.112:51516)" duplex="false"/> </networkConnectors> 集群2链接集群1: <networkConnectors> <networkConnector uri="static:(tcp://192.168.1.111:51511,tcp://192.168.1.111:51512,tcp://192.168.1.111:51513)" duplex="false"/> </networkConnectors>

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017-11-28 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
负载均衡
负载均衡(Cloud Load Balancer,CLB)提供安全快捷的流量分发服务,访问流量经由 CLB 可以自动分配到云中的多台后端服务器上,扩展系统的服务能力并消除单点故障。负载均衡支持亿级连接和千万级并发,可轻松应对大流量访问,满足业务需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档