前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >FlinkConsumer是如何保证一个partition对应一个thread的

FlinkConsumer是如何保证一个partition对应一个thread的

作者头像
shengjk1
发布2019-06-14 20:51:54
1.3K0
发布2019-06-14 20:51:54
举报
文章被收录于专栏:码字搬砖码字搬砖

版权声明:本文为博主原创,欢迎转载,转载请标明出处 Blog Address:http://blog.csdn.net/jsjsjs1789 https://cloud.tencent.com/developer/article/1446321

我们都知道flink 连接kafka时,默认是一个partition对应一个thread,它究竟是怎么实现的呢?以及到我们自己定义 RichParallelSourceFunction 的时候如何借鉴这部分代码呢?

我们一起来看一下(基于flink-1.8)

看过flink kafka连接器源码的同学对 FlinkKafkaConsumerBase 应该不陌生(没有看过的也无所谓,我们一起来看就好)

一起来看一下 FlinkKafkaConsumerBase 的 open 方法中关键的部分

//获取fixed topic's or topic pattern 's   partitions of this subtask
		final List<KafkaTopicPartition> allPartitions = partitionDiscoverer.discoverPartitions();

没错这就是查看Flink Consumer 保证 一个partition对应一个Thread的入口方法

public List<KafkaTopicPartition> discoverPartitions() throws WakeupException, ClosedException {
		if (!closed && !wakeup) {
			try {
			...
				// (2) eliminate partition that are old partitions or should not be subscribed by this subtask
				if (newDiscoveredPartitions == null || newDiscoveredPartitions.isEmpty()) {
					throw new RuntimeException("Unable to retrieve any partitions with KafkaTopicsDescriptor: " + topicsDescriptor);
				} else {
					Iterator<KafkaTopicPartition> iter = newDiscoveredPartitions.iterator();
					KafkaTopicPartition nextPartition;
					while (iter.hasNext()) {
						nextPartition = iter.next();
						//从之前已经发现的KafkaTopicPartition中移除,其二可以保证仅仅是这个subtask的partition
						if (!setAndCheckDiscoveredPartition(nextPartition)) {
							iter.remove();
						}
					}
				}

				return newDiscoveredPartitions;
			...
	}

关键性的部分 setAndCheckDiscoveredPartition 方法,点进去

public boolean setAndCheckDiscoveredPartition(KafkaTopicPartition partition) {
		if (isUndiscoveredPartition(partition)) {
			discoveredPartitions.add(partition);
			
			//kafkaPartition与indexOfThisSubTask --对应
			return KafkaTopicPartitionAssigner.assign(partition, numParallelSubtasks) == indexOfThisSubtask;
		}
		return false;
	}

indexOfThisSubtask 表示当前线程是那个subtask,numParallelSubtasks 表示总共并行的subtask 的个数, 当其返回true的时候,表示此partition 属于此indexOfThisSubtask。

下面来看一下具体是怎么划分的

public static int assign(KafkaTopicPartition partition, int numParallelSubtasks) {
		int startIndex = ((partition.getTopic().hashCode() * 31) & 0x7FFFFFFF) % numParallelSubtasks;

		// here, the assumption is that the id of Kafka partitions are always ascending
		// starting from 0, and therefore can be used directly as the offset clockwise from the start index
		return (startIndex + partition.getPartition()) % numParallelSubtasks;
	}

基于topic 和 partition,然后对numParallelSubtasks取余。

那么,当我们自己去定义RichParallelSourceFunction的时候如何去借鉴它呢,直接上代码:

public class WordSource extends RichParallelSourceFunction<Tuple2<Long, Long>> {
	
	private Boolean isRun = true;
	
	@Override
	public void run(SourceContext<Tuple2<Long, Long>> ctx) throws Exception {
		int start = 0;
		int numberOfParallelSubtasks = getRuntimeContext().getNumberOfParallelSubtasks();
		while (isRun) {
			start += 1;
			if (start % numberOfParallelSubtasks == getRuntimeContext().getIndexOfThisSubtask()) {
				ctx.collect(new Tuple2<>(
						Long.parseLong(start+""),
						1L));
				Thread.sleep(1000);
				System.out.println("Thread.currentThread().getName()=========== " + Thread.currentThread().getName());
			}
		}
	}
	
	@Override
	public void cancel() {
		isRun = false;
	}
}

当当当,自此,自己定义个RichParallelSourceFunction也可以并行发数据了,啦啦啦啦!

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019年05月26日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
大数据
全栈大数据产品,面向海量数据场景,帮助您 “智理无数,心中有数”!
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档