我设置了一个kafka s3连接器,但是由于错误,它无法使用来自kafa的数据:
The coordinator is not available
kafka是一个单节点集群,似乎与其他用户合作很好,例如,偏移浏览器可以从主题中读取数据。
我确实检查了堆栈溢出中提出的类似问题,offsets.topic.replication.factor的所有q/a点都应该手动设置为1,而不是单个节点集群中的默认3。
在我的例子中,我检查了主题,并将其设置为1。
./kafka-topics.sh --describe --zookeeper broker:2181 --topic 202208.topic
我目前工作的汇合3.0.1平台。我试图在两个不同的工作人员上创建两个连接器,但是尝试创建一个新的连接器正在为它创建一个新的组。
Two connectors were created using below details:
1) POST http://devmetric.com:8083/connectors
{
"name": "connector1",
"config": {
"connector.class": "com.xxx.kafka.connect.sink.Deliv
使用JDBC同步连接器获取以下错误。
ERROR WorkerSinkTask{id=12sink-0} Task threw an uncaught and unrecoverable exception. Task is being killed and will not recover until manually restarted. Error: Cannot ALTER TABLE "new1501"."test"."patient3" to add missing field SinkRecordField{schema=Sche
我正在我的Windows机器上配置一个Kafka Mongodb接收器连接器。
我的connect-standalone.properties文件有
plugin.path=E:/Tools/kafka_2.12-2.4.0/plugins
我的MongoSinkConnector.properties文件
name=mongo-sink
topics=first_topic
connector.class=com.mongodb.kafka.connect.MongoSinkConnector
tasks.max=1
key.ignore=true
# Specific global Mo
我正在尝试使用JDBC接收器连接器将数据从Kafka加载到Oracle,以复制confluent网站中提到的示例:
name=jdbc-sink
connector.class=io.confluent.connect.jdbc.JdbcSinkConnector
tasks.max=1
# The topics to consume from - required for sink connectors like this one
topics=orders
# Configuration
我正在使用这个Github回购和文件夹路径,我发现:运行卡夫卡本地独立模式连接。我对Docker撰写文件做了一些更改,但主要是与身份验证有关的更改。
我现在遇到的问题是,当我运行Docker映像时,对每个分区(有10个分区,从0到9),我多次得到这个错误:
[2021-12-07 19:03:04,485] INFO [bq-sink-connector|task-0] [Consumer clientId=connector- consumer-bq-sink-connector-0, groupId=connect-bq-sink-connector] Found no commit