KAFKA的安装配置

一、kafka单机部署

1. 上传kafka_1.20-0.10.1.0.tgz到linux

2. 解压

tar -xzvf kafka_1.20-0.10.1.0.gz -C /home/hadoop/work/

3. 在bin下查看脚本

cd /home/hadoop/work/ kafka_1.20-0.10.1.0/bin

在config下查看zookeeper配置文件

cd /home/hadoop/work/ kafka_1.20-0.10.1.0/config

cat zookeeper.properties

4.启动一个单节点zookeeper

在kafka_1.20-0.10.1.0下:bin/zookeeper-server-start.sh config/zookeeper.properties

5.新开一个Xshell客户端连接redhat02

jps 查看zookeeper进程

6.启动一个kafka的server

在kafka_1.20-0.10.1.0下:bin/kafka-server-start.sh config/server.properties

7.新开一个Xshell客户端连接redhat02

jps 查看Kafka进程

8.创建一个kafka的topic

在kafka_1.20-0.10.1.0下:bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test_topic

可通过命令:bin/kafka-topics.sh --list --zookeeper localhost:2181查看topic是否创建成功

9.创建一个console的producer

在kafka_1.20-0.10.1.0下:bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test_topic

这时启动了一个console终端,输入iphone、xiaomi、meizu等测试数据

10.新开一个Xshell客户端连接redhat02

jps 查看ConsoleProducer进程

11.创建一个console的consumer

在kafka_1.20-0.10.1.0下:bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test_topic --from-beginning

查看是否消费到producer创建的消息

12.关掉consumer,再打开consumer

在kafka_1.20-0.10.1.0下:bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test_topic --from-beginning

查看是否消费到producer创建的所有消息

13.关掉consumer,再打开consumer

在kafka_1.20-0.10.1.0下:bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test_topic

查看是否消费到producer创建的所有消息

在producer中创建新消息,比如:huawei、chuizi等,看consumer是否消费到

二、kafka集群部署

1. 确保kafka_1.20-0.10.1.0在redhat01、redhat02、redhat03中都存在

在/home/hadoop/work/ kafka_1.20-0.10.1.0/目录下:

vim config/server.properties

修改broker.id

redhat01的broker.id=0,redhat02的broker.id=1,redhat03的broker.id=2

修改zookeeper.connect=redhat01:2181,redhat02:2181,redhat03:2181

2. 确保redhat01、redhat02、redhat03中的zookeeper都已启动

如果没启动,在/home/hadoop/work/zookeeper-3.4.9/bin/目录下:./zkServer.sh start

3. 启动redhat01、redhat02、redhat03中的kafka

在/home/hadoop/work/kafka_1.20-0.10.1.0/目录下:bin/kafka-server-start.sh config/server.properties

如果出现以下错误:

则删除/tmp/kafka-logs/下的所有文件,在/tmp目录下:rm –r kafka-logs

4.创建一个kafka的topic

在kafka_1.20-0.10.1.0下:bin/kafka-topics.sh --create --zookeeper redhat01:2181 --replication-factor 3 --partitions 2 --topic clusterTopic

可通过命令:bin/kafka-topics.sh --list --zookeeper redhat01:2181查看topic是否创建成功

5.查看topic的描述信息

在kafka_1.20-0.10.1.0下:bin/kafka-topics.sh –describe –zookeeper redhat01:2181 -–topic cluster_topic

6.创建一个console的producer

在kafka_1.20-0.10.1.0下:bin/kafka-console-producer.sh --broker-list redhat01:9092 --topic cluster_topic

7.创建一个console的consumer

新开一个Xshell客户端,在kafka_1.20-0.10.1.0下:bin/kafka-console-consumer.sh --zookeeper redhat01:2181 --topic cluster_topic --from-beginning

8.在producer端输入数据,在consumer端看效果

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏小黄人打代码

学习Java第一步!新手小白必看!

1203
来自专栏乐沙弥的世界

Linux 常用目录管理命令(cd pwd mkdir rmdir)

      Linux 的命令非常之多,而使用的最多最广最基本的莫过于一些常用的命令,如目录命令即是如此。Linux的常用目录命令与DOS中的目录命 令非常相...

351
来自专栏Python疯子

docker:如果提示gpg: 找不到有效的 OpenPGP 数据。先添加pgp key

sudo curl -fsSL https://get.docker.com/| sh

2242
来自专栏xcywt

《Linux命令行与shell脚本编程大全》 第五章理解shell

5.1 1. cat /etc/passwd 可以查看每个用户自己的默认的shell程序。 2.默认的交互shell会在用户登录某个虚拟控制台终端时启动。 不过...

20010
来自专栏云计算教程系列

Linux中ln的用法

ln是linux中一个非常重要命令,它的功能是为某一个文件在另外一个位置建立一个同步的链接.当我们需要在不同的目录,用到相同的文件时,我们不需要在每一个需要的目...

1036
来自专栏魏艾斯博客www.vpsss.net

Vultr 快照(snapshots)恢复功能

1604
来自专栏抠抠空间

Flask使用SQLAlchemy连接mysql

1383
来自专栏漏斗社区

工具 | w3af系列安装篇(一)

W3af是一个基于Python的Web应用扫描器,本期我们将来唠一唠w3af的安装和使用。 ? 在windows上安装 ‍‍‍‍‍ 官网的最新版本已经不提...

3527
来自专栏Hongten

python开发_python文件操作

官方API:os-Miscellaneous operating system interfaces

842
来自专栏流媒体人生

ffmpeg控制台上不能输出信息的解决办法

-mwindows是windows窗口APP所需的参数,而要在控制台下输出信息必须是windows控制台程序。

641

扫码关注云+社区