前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >如何通过CM升级CDK至3.1.0(Kafka-1.0.1)

如何通过CM升级CDK至3.1.0(Kafka-1.0.1)

作者头像
Fayson
发布2018-09-29 10:57:51
1.6K0
发布2018-09-29 10:57:51
举报
文章被收录于专栏:Hadoop实操Hadoop实操

1.文档编写目的


在前面的文章《如何通过CM升级Kafka0.11及Spark2.2》中Fayson介绍了升级Kafka的方式。本篇文章Fayson主要介绍在CDH中如何升级CDK3.1.0(即Kafka社区版1.0.1)以及验证Kafka功能。

  • 内容概述

1.部署CDK3.1.0的Parcel包

2.CM配置CDK的Parcel库地址

3.Kafka升级及功能测试

  • 测试环境

1.CM5.15.0和CDH版本为5.14.2

2.RedHat7.3

  • 前置条件

1.CM和CDH5.3和更高版本

2.JDK8或以上版本

2.升级环境及已有Topic描述


1.升级环境描述

升级前版本

待升级版本

CDK3.0.0(社区版kafka0.10.2)

CDK3.1.0(社区版kafka1.0.1)

2.升级前创建一个测试的Topic,并向topic中生产数据及消费

创建topic-upgrade Topic

代码语言:javascript
复制
kafka-topics --create --zookeeper cdh01.fayson.com:2181 --replication-factor 3 --partitions 4 --topic topic-upgrade

(可左右滑动)

3.向topic-upgrade中生产数据

4.使用kafka-console-consumer消费该Topic数据

代码语言:javascript
复制
kafka-console-consumer --topic topic-upgrade --from-beginning --bootstrap-server cdh01.fayson.com:9092,cdh02.fayson.com:9092,cdh03.fayson.com:9092,cdh04.fayson.com:9092

(可左右滑动)

在升级前Kafka可以正常创建Topic,向Topic生产数据及消费。

3.部署Kafka的Parcel包


1.在Cloudera官网下载Kafka的Parcel包

Kafka下载地址:

代码语言:javascript
复制
http://archive.cloudera.com/kafka/parcels/3.1.0/KAFKA-3.1.0-1.3.1.0.p0.35-el7.parcel
http://archive.cloudera.com/kafka/parcels/3.1.0/KAFKA-3.1.0-1.3.1.0.p0.35-el7.parcel.sha1
http://archive.cloudera.com/kafka/parcels/3.1.0/manifest.json

(可左右滑动)

2.在/var/www/html下创建cdk3.1.0的部署目录,并下载parcle包到该目录下

代码语言:javascript
复制
[root@cdh01 ~] sudo mkdir -p /var/www/html/cdk3.1.0

(可左右滑动)

cdk3.1.0目录

3.测试Kafka的Parcel是否部署成功

4.CM中配置Kafka的Parcel库


1.登录CM,进入Parcel配置界面

2.点击“配置”

3.配置Kafka的Parcel库地址

4.点击“保存更改”,查看配置成功。此时如果能看到Kafka3.0为可以“下载”状态,已有的Kafka2.2.0为可以“停用”状态,则表示配置Parcel库成功。注意此时Kafka2.2依旧为使用状态。

5.Kafka3.1.0升级


1.下载、分配并激活Kafka3.1.0的Parcel包

下载Parcel包

分配Parcel

2.激活Kafka3.1.0,点击“激活”时选择重启Kafka服务,如果未选择重启则需要在激活成功后重启Kafka服务

激活成功

以上操作就完成了Kafka3.1.0的升级

6.升级后验证


  • Kafka测试

由于集群已启用Kerberos,所以在测试Spark的时候需要加载KAFKA_OPTS的环境变量,具体可以参考Fayson前面的文章《如何通过Cloudera Manager为Kafka启用Kerberos及使用

1. 消费升级前创建的topic-upgrade

代码语言:javascript
复制
kafka-console-consumer --topic topic-upgrade --from-beginning --bootstrap-server cdh01.fayson.com:9092,cdh02.fayson.com:9092,cdh03.fayson.com:9092,cdh04.fayson.com:9092

(可左右滑动)

升级后可以正常消费Topic数据。

2.创建一个mytopic的topic

代码语言:javascript
复制
[root@cdh02 ~]# kafka-topics --create --zookeeper cdh01.fayson.com:2181 --replication-factor 3 --partitions 4 --topic mytopic

(可左右滑动)

mytopic创建成功。

3. 向mytopic生产消息

4.消费mytopic消息

代码语言:javascript
复制
kafka-console-consumer --topic topic-upgrade --from-beginning --bootstrap-server cdh01.fayson.com:9092,cdh02.fayson.com:9092,cdh03.fayson.com:9092,cdh04.fayson.com:9092

(可左右滑动)

mytopic消息消费成功。

7.总结


从CDK2.2.0(社区版0.10.2)升级至CDK3.1.0(社区版1.0.1)未出现Topic丢失或数据丢失问题。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-09-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Hadoop实操 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
专用宿主机
专用宿主机(CVM Dedicated Host,CDH)提供用户独享的物理服务器资源,满足您资源独享、资源物理隔离、安全、合规需求。专用宿主机搭载了腾讯云虚拟化系统,购买之后,您可在其上灵活创建、管理多个自定义规格的云服务器实例,自主规划物理资源的使用。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档