前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >快速入门Kafka系列(4)——Kafka的主要组件说明

快速入门Kafka系列(4)——Kafka的主要组件说明

作者头像
大数据梦想家
发布2021-01-27 15:58:15
5510
发布2021-01-27 15:58:15
举报

作为快速入门Kafka系列的第四篇博客,本篇为大家带来的是Kafka的主要组件说明~

码字不易,先赞后看!

在这里插入图片描述
在这里插入图片描述

上一篇博客主要介绍的是Kafka的架构组成,对于内部组件讲述的还是不够细致,所有就有了下文~

Kafka主要组件说明

1、kafka当中的producer说明

producer主要是用于生产消息,是kafka当中的消息生产者,生产的消息通过topic进行归类,保存到kafka的broker里面去。

2、kafka当中的topic说明

  • kafka将消息以topic为单位进行归类
  • topic特指kafka处理的消息源(feeds of messages)的不同分类。
  • topic是一种分类或者发布的一些列记录的名义上的名字。kafka主题始终是支持多用户订阅的;也就是说,一 个主题可以有零个,一个或者多个消费者订阅写入的数据。
  • 在kafka集群中,可以有无数的主题。
  • 生产者和消费者消费数据一般以主题为单位。更细粒度可以到分区级别。

3、kafka当中的partition说明

kafka当中,topic是消息的归类,一个topic可以有多个分区,每个分区保存部分topic的数据,所有的partition当中的数据全部合并起来,就是一个topic当中的所有的数据。

一个broker服务下,是否可以创建多个分区? 可以的,broker数与分区数没有关系; 在kafka中,每一个分区会有一个编号:编号从0开始

每一个分区的数据是有序的

在这里插入图片描述
在这里插入图片描述

说明-数据是有序 如何保证一个主题下的数据是有序的?(生产是什么样的顺序,那么消费的时候也是什么样的顺序)

topic的Partition数量在创建topic时配置。

Partition数量决定了每个Consumer group中并发消费者的最大数量。

如下图所示:

在这里插入图片描述
在这里插入图片描述

Consumer group A 有两个消费者来读取4个partition中数据;Consumer group B有四个消费者来读取4个 partition中的数据。

3、kafka当中partition的副本数说明

在这里插入图片描述
在这里插入图片描述

副本数(replication-factor):控制消息保存在几个broker(服务器)上,一般情况下等于broker的个数。

一个broker服务下,是否可以创建多个副本因子? 不可以;创建主题时,副本因子应该小于等于可用的broker数。

副本因子过程图:

在这里插入图片描述
在这里插入图片描述

副本因子操作以分区为单位的。每个分区都有各自的主副本和从副本;主副本叫做leader,从副本叫做 follower(在有多个副本的情况下,kafka会为同一个分区下的所有分区,设定角色关系:一个leader和N个 follower),处于同步状态的副本叫做in-sync-replicas(ISR);

follower通过拉的方式从leader同步数据。

消费 者和生产者都是从leader读写数据,不与follower交互。

副本因子的作用:让kafka读取数据和写入数据时的可靠性。

副本因子是包含本身,同一个副本因子不能放在同一个Broker中。

如果所有的副本都挂了,生产者如果生产数据到指定分区的话,将写入不成功。

5、kafka当中的segment说明

一个partition当中由多个segment文件组成,每个segment文件,包含两部分,一个是.log文件,另外一个是.index文件,其中.log文件包含了我们发送的数据存储,.index文件记录的是我们.log文件的数据索引值,以便于我们加快数据的查询速度。

索引文件与数据文件的关系

既然它们是一一对应成对出现,必然有关系。索引文件中元数据指向对应数据文件中message的物理偏移地址。

比如索引文件中3,497代表:数据文件中的第三个message,它的偏移地址为497。再来看数据文件中,Message 368772表示:在全局partiton中是第368772个message。

注:segment index file采取稀疏索引存储方式,它减少索引文件大小,通过mmap可以直接内存操作,稀疏索引为数据文件的每个对应message设置一个元数据指针,它比稠密索引节省了更多的存储空间,但查找起来需要消耗更多的时间。

在这里插入图片描述
在这里插入图片描述

6、kafka当中的partition的offset

任何发布到此partition的消息都会被直接追加到log文件的尾部,每条消息在文件中的位置称为offset(偏移量)。

offset是一个long类型数字,它唯一标识了一条消息,消费者通过(offset,partition,topic)跟踪记录。

在这里插入图片描述
在这里插入图片描述

7、kafka分区与消费组的关系

消费组: 由一个或者多个消费者组成,同一个组中的消费者对于同一条消息只消费一次。

某一个主题下的分区数,对于消费组来说,应该小于等于该主题下的分区数。

如:某一个主题有4个分区,那么消费组中的消费者应该小于4,而且最好与分区数成整数倍1 2 4同一个分区下的数据,在同一时刻,不能同一个消费组的不同消费者消费。

总结:分区数越多,同一时间可以有越多的消费者来进行消费,消费数据的速度就会越快,提高消费的性能。

8、kafka当中的consumer

consumer是kafka当中的消费者,主要用于消费kafka当中的数据,任何一个消费者都必定需要属于某一个消费组当中,任意时刻,一个分区当中的数据,只能被kafka当中同一个消费组下面的一个线程消费。

重点摘要

看完上面的内容,是不是感到有点乱~不用担心,体贴的博主已经将重点提取出来了,方便大家的记忆与学习ヾ(◍°∇°◍)ノ゙

生产者(Producer):kafka当中的消息生产者,生产的消息通过topic进行归类,保存到kafka的broker里面去 主题(topic): 一个主题可以有零个,一个或者多个消费者订阅写入的数据。可以有无数个主题。 分区(partition): 每一个分区的数据是有序的,多个partition之间是无需的。Partition数量决定了每个Consumer group中并发消费者的最大数量。 分区和消费组之间的关系:同一个组中的消费者对于同一条消息只消费一次。 消费者应该小于等于该主题下的分区数. Partition = 消费任务的并发度=刚刚好,每个任务读取一个partition数据 Partition >消费任务的并发度=有部分消费任务读取多个分区的数据 Partition < 消费任务的并发度=有部分消费任务空闲 任何时候,分区中的一条数据只能被一个消费组中的一个消费任务读取。 总结:分区数越多,同一时间可以有越多的消费者来进行消费,消费数据的速度就会越快,提高消费的性能。 数据副本(Replicas):数据副本数一般情况下小于等于broker的个数, 每个分区都有各自的主副本(在哪里复制的)和从副本(复制出来的)。 follower通过拉的方式从leader同步数据。 消费者和生产者都是从leader读写数据,不与follower交互。副本只用来提高集群的可靠性。 一个分区有三个副本因子,一个挂掉(主福本),不会在其他的broker中,另启动一个副本。丢失的副本不会恢复。 lsr表示:当前可用的副本列表 Segment:一个partition当中有多个segment,一个segment由一个是.log文件和一个.index文件 偏移量(Offset):每条消息在文件中的位置称为offset(偏移量) 消费者(Consumer):任何一个消费者都必定需要属于某一个消费组当中。


本篇博客的内容分享就到这里了,感兴趣的朋友不妨点个赞关注一下博主,下一篇为大家带来的是Kafka集群操作,敬请期待|ू・ω・` )

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020-03-21 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Kafka主要组件说明
    • 1、kafka当中的producer说明
      • 2、kafka当中的topic说明
        • 3、kafka当中的partition说明
          • 3、kafka当中partition的副本数说明
            • 5、kafka当中的segment说明
              • 索引文件与数据文件的关系
            • 6、kafka当中的partition的offset
              • 7、kafka分区与消费组的关系
                • 8、kafka当中的consumer
                • 重点摘要
                相关产品与服务
                数据保险箱
                数据保险箱(Cloud Data Coffer Service,CDCS)为您提供更高安全系数的企业核心数据存储服务。您可以通过自定义过期天数的方法删除数据,避免误删带来的损害,还可以将数据跨地域存储,防止一些不可抗因素导致的数据丢失。数据保险箱支持通过控制台、API 等多样化方式快速简单接入,实现海量数据的存储管理。您可以使用数据保险箱对文件数据进行上传、下载,最终实现数据的安全存储和提取。
                领券
                问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档