前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Docker下的Kafka学习之二:搭建集群环境

Docker下的Kafka学习之二:搭建集群环境

作者头像
程序员欣宸
发布2018-01-04 14:55:14
1.3K0
发布2018-01-04 14:55:14
举报
文章被收录于专栏:实战docker

在上一章《Docker下的Kafka学习之一:制作集群用的镜像文件》中,我们把继承了zookeeper和kafka的镜像做好了,现在我们就用这个镜像来搭建Kafka集群环境。

Docker软件版本

本次实战的电脑操作系统是Win10专业版,安装的Docker版本信息如下:

这里写图片描述
这里写图片描述

ssh工具

为了登录容器方便,建议使用SecureCRT;

环境规划

本次实战要搭建六个容器,使用同一个镜像,容器们的功能如下: 1. kafka集群:三个broker,分别是borker1、broker2、broker3; 2. 消息生产者:一个; 3. 消息消费者:两个;

容器名

ip

功能

borker1

172.18.0.2

kafka集群之一

borker2

172.18.0.3

kafka集群之二

borker3

172.18.0.4

kafka集群之三

producer

172.18.0.5

消息生产者

consumer1

172.18.0.5

消息消费者之一

consumer2

172.18.0.5

消息消费者之二

docker-compose.yml文件

使用docker-compose可以使多个容器的管理更简单方便,按照上面所划分功能配置出的docker-compose.yml文件内容如下:

代码语言:javascript
复制
version: '2'
services:
  broker1: 
    image: bolingcavalry/ssh-kafka292081-zk346:0.0.1
    container_name: broker1
    ports:
      - "19011:22"
    restart: always
  broker2: 
    image: bolingcavalry/ssh-kafka292081-zk346:0.0.1
    container_name: broker2
    depends_on:
      - broker1
    ports:
      - "19012:22"  
    restart: always
  broker3: 
    image: bolingcavalry/ssh-kafka292081-zk346:0.0.1
    container_name: broker3
    depends_on:
      - broker2
    ports:
      - "19013:22"
    restart: always
  producer: 
    image: bolingcavalry/ssh-kafka292081-zk346:0.0.1
    container_name: producer
    links: 
      - broker1:hostb1
      - broker2:hostb2
      - broker3:hostb3
    ports:
      - "19014:22"
    restart: always
  consumer1: 
    image: bolingcavalry/ssh-kafka292081-zk346:0.0.1
    container_name: consumer1
    depends_on:
      - producer
    links: 
      - broker1:hostb1
      - broker2:hostb2
      - broker3:hostb3
    ports:
      - "19015:22"
    restart: always
  consumer2: 
    image: bolingcavalry/ssh-kafka292081-zk346:0.0.1
    container_name: consumer2
    depends_on:
      - consumer1
    ports:
      - "19016:22"
    links: 
      - broker1:hostb1
      - broker2:hostb2
      - broker3:hostb3
    restart: always  

如上所示,所有容器的22端口都映射到当前电脑的不同端口,方便使用ssh工具登录,另外消息生产者和消费者都配置了link参数,避免在连接kafka集群的时候直接输入ip;

启动所有容器

在docker-compose.yml所在文件夹下执行以下命令:

代码语言:javascript
复制
docker-compose up -d

会依次启动上述的六个容器,如下图:

这里写图片描述
这里写图片描述

管理每台机器的登录和连接

由于每个容器都支持ssh登录,所以我们可以用SecureCRT来管理登录,创建六个ssh连接,host都是127.0.0.1,端口依次是19011到19016,如下图:

这里写图片描述
这里写图片描述

例如broker1的配置如下:

这里写图片描述
这里写图片描述

这样后面我们的连接登录操作就方便了很多。

配置hosts

分别登录broker1、broker2、broker3,用ip addr查看他们的IP分别是:172.18.0.2、172.18.0.3、172.18.0.4,于是将这三个容器的/etc/hosts文件都添加以下三行:

代码语言:javascript
复制
broker1 172.18.0.2
broker2 172.18.0.3
broker3 172.18.0.4

配置zookeeper

  1. 分别登录broker1、broker2、broker3,打开它们的/usr/local/work/zookeeper-3.4.6/conf/zoo.cfg文件,在最下面添加以下内容:
代码语言:javascript
复制
server.1=broker1:2887:3887
server.2=broker2:2888:3888
server.3=broker3:2889:3889

这样就指定了zookeeper集群的机器; 2. 配置每个zookeeper的身份: 在broker1执行以下命令:

代码语言:javascript
复制
echo 1 > /usr/local/work/zkdata/myid

在broker2执行以下命令:

代码语言:javascript
复制
echo 2 > /usr/local/work/zkdata/myid

在broker3执行以下命令:

代码语言:javascript
复制
echo 3 > /usr/local/work/zkdata/myid

启动zookeeper

在broker1、broker2、broker3上依次执行以下命令将所有zookeeper启动:

代码语言:javascript
复制
/usr/local/work/zookeeper-3.4.6/bin/zkServer.sh start

启动后,可以用以下命令查看当前机器的zookeeper状态:

代码语言:javascript
复制
/usr/local/work/zookeeper-3.4.6/bin/zkServer.sh status

如下图,broker2是leader:

这里写图片描述
这里写图片描述

至此,zookeeper集群启动成功;

配置kafka

在broker1上,打开文件/usr/local/work/kafka_2.9.2-0.8.1/config/server.properties,修改以下两处: 1. 找到下图红框位置:

这里写图片描述
这里写图片描述

将原来的broker.id=0改为broker.id=1,这里的”1”是和myid文件的内容一致; 对broker2、broker3也做相同的操作,broker.id分别是2和3; 2. 找到下图红框位置:

这里写图片描述
这里写图片描述

将上图红框中的内容改成以下内容:

代码语言:javascript
复制
zookeeper.connect=broker1:2181,broker2:2181,broker3:2181

对broker2、broker3、producer也做相同的操作;

启动kafka集群

在broker1、broker2、broker3上面依次执行以下命令,即可启动kafka集群:

代码语言:javascript
复制
nohup /usr/local/work/kafka_2.9.2-0.8.1/bin/kafka-server-start.sh /usr/local/work/kafka_2.9.2-0.8.1/config/server.properties >/usr/local/work/log/kafka.log 2>1 &

验证消息服务

  1. 在broker1上执行以下命令,在broker1上创建一个topic:
代码语言:javascript
复制
/usr/local/work/kafka_2.9.2-0.8.1/bin/kafka-topics.sh --create --zookeeper broker1:2181,broker2:2181,broker3:2181 --replication-factor 1 --partitions 3 --topic test001

以上命令创建了一个名为”test001”的主题,有三个partition; 2. 在broker2上执行以下命令,查看当前topic列表:

代码语言:javascript
复制
/usr/local/work/kafka_2.9.2-0.8.1/bin/kafka-topics.sh --list --zookeeper broker1:2181,broker2:2181,broker3:2181

可以看到topic列表如下:

这里写图片描述
这里写图片描述

如上图,刚刚在broker1上创建的主题test001可以看到; 3. 在broker1的/tmp/kafka-logs/目录下,可以看到新建的topic的partition文件夹,如下图:

这里写图片描述
这里写图片描述

如上图,有个test001-2的目录,表明这是存放2号partition内容的地方,进入该文件夹,可以看到index和log文件; 登录broker2和broker3可以分别看到test001-0和test001-1文件夹; 4. 登录producer容器,执行以下命令,进入发送消息的模式:

代码语言:javascript
复制
/usr/local/work/kafka_2.9.2-0.8.1/bin/kafka-console-producer.sh --broker-list broker1:9092,broker2:9092,broker3:9092 --topic test001

如下图所示:

这里写图片描述
这里写图片描述

此时已经准备完毕,我们可以准备消息消费者了; 5. 依次登录consumer1、consumer2,都执行以下命令,即可进入接受消息的模式:

代码语言:javascript
复制
/usr/local/work/kafka_2.9.2-0.8.1/bin/kafka-console-consumer.sh --zookeeper broker1:2181,broker1:2181,broker1:2181 --from-beginning --topic test001

现在可以发送消息了; 6. 在producer容器上,现在是发送消息的模式,依次输入以下三个字符串,每输入一个就敲回车,这样相当于发送了三条消息,然后再去consumer1和consumer2上看一下,发现效果如下:

这里写图片描述
这里写图片描述

如上图,consumer1和consumer2一样,都是消息全部收到;

至此,Kafka集群环境的搭建和验证就完成了,后续章节我们通过java来完成集群环境下kafka消息的发送和接受;

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2017-10-22 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Docker软件版本
  • ssh工具
  • 环境规划
  • docker-compose.yml文件
  • 启动所有容器
  • 管理每台机器的登录和连接
  • 配置hosts
  • 配置zookeeper
  • 启动zookeeper
  • 配置kafka
  • 启动kafka集群
  • 验证消息服务
相关产品与服务
容器镜像服务
容器镜像服务(Tencent Container Registry,TCR)为您提供安全独享、高性能的容器镜像托管分发服务。您可同时在全球多个地域创建独享实例,以实现容器镜像的就近拉取,降低拉取时间,节约带宽成本。TCR 提供细颗粒度的权限管理及访问控制,保障您的数据安全。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档