我正在使用Docker启动一个kafka代理集群(例如,每个容器有一个代理)。卡夫卡版本2.12-0.11.0.0,动物园管理员3.4.10。
场景:
zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/opt/zookeeper/data
clientPort=2181
maxClientCnxns=10
minSessionTimeout=4000
maxSessionTimeout=1000000
server.1=0.0.0.0:2888:3888
server.properties
broker.id=1
listeners=PLAINTEXT://:9092
advertised.listeners=PLAINTEXT://broker1_IP:broker1_PORT
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/tmp/kafka-logs
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=127.0.0.1:2181
zookeeper.session.timeout.ms=6000
zookeeper.connection.timeout.ms=1000000
group.initial.rebalance.delay.ms=0
producer.properties
bootstrap.servers=localhost:9092
compression.type=none
consumer.properties
zookeeper.connect=127.0.0.1:2181
zookeeper.session.timeout.ms=6000
zookeeper.connection.timeout.ms=1000000
group.id=test-consumer-group
/opt/kafka/bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic my-test-topic1
echo "test_kafka1" | /opt/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic my-test-topic1
/opt/kafka/bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic my-test-topic1 --max-messages 1
消息接收到
/opt/kafka/bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-test-topic1 Topic:my-test-topic1 PartitionCount:1 ReplicationFactor:1 Configs: Topic: my-test-topic1 Partition: 0 Leader: 1 Replicas: 1 Isr: 1
每个经纪人的zoo.cfg从1到5(只有0.0.0.0:2888:3888的位置不同)
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/opt/zookeeper/data
clientPort=2181
maxClientCnxns=10
minSessionTimeout=4000
maxSessionTimeout=1000000
server.1=0.0.0.0:2888:3888
server.2=broker2_IP:broker2_2888:broker2_3888
server.3=broker3_IP:broker3_2888:broker3_3888
server.4=broker4_IP:broker4_2888:broker4_3888
server.5=broker5_IP:broker5_2888:broker5_3888
每个经纪人的server.properties从第一到第五(broker.id是唯一的,broker_IP:broker_PORT对技术经纪人不同)
broker.id=N
listeners=PLAINTEXT://:9092
advertised.listeners=PLAINTEXT://broker_IP:broker_PORT
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/tmp/kafka-logs
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=127.0.0.1:2181
zookeeper.session.timeout.ms=6000
zookeeper.connection.timeout.ms=1000000
group.initial.rebalance.delay.ms=0
从第一到第五期间每个经纪人的producer.properties
bootstrap.servers=localhost:9092
compression.type=none
从第一到第五期间每个经纪人的consumer.properties
zookeeper.connect=127.0.0.1:2181
zookeeper.session.timeout.ms=6000
zookeeper.connection.timeout.ms=1000000
group.id=test-consumer-group
/opt/kafka/bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-test-topic1 Topic:my-test-topic1 PartitionCount:1 ReplicationFactor:1 Configs: Topic: my-test-topic1 Partition: 0 Leader: 5 Replicas: 5 Isr: 5
这是正常行为吗?还是应该待在1号经纪人身上?
/opt/kafka/bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic my-test-topic1 --max-messages 1
消息丢失了(当主题停留在代理1上时,消息不会丢失,因此它是浮动的)
发布于 2018-05-01 16:24:17
你试过把发痒时间提高到6000次吗?根据Hadoop的设置,他们默认使用这个设置,说明2000毫秒设置太低。我认为这同样适用于这里。我现在正在处理一个非常类似的卡夫卡问题。
发布于 2019-03-22 11:09:37
在Kafka文档中,配置描述和配置示例都建议在broker zookeeper.connect
中指定所有的动物园管理员服务器。在生产过程中,预计您将运行一个单独的Zookeeper集群和一个单独的Kafka集群,而不是在一个码头容器中共同运行Kafka和ZK。
我想可能会发生这样的事情:
我不知道什么是正确的方法,从一个单一节点的动物园管理员到一个复制的设置,并没有找到它在文档中。也许您必须首先为您的ZK分配更多的weight
,这样您就可以保证它成为领导者,并在其他ZK节点上强制它的主题配置。
你制造了JIRA的问题吗?开发商有什么反应吗?
https://stackoverflow.com/questions/49125957
复制相似问题