我正在用Confluent平台学习kafka。我遵循了他们的docker快速入门指南。但是,当我试图为该主题生成模拟数据时,我找不到他们指南中的连接器。然后,我花了几天的时间尝试使用confluent hub客户端添加连接器。我已经下载了tar.gz文件并将其解压缩。然后我使用confluent-hub install confluentinc/kafka-connect-datagen:0.1.1命令。但它显示了以下错误。java: No such file or directory
Erro
我正在使用kafka连接,以便从mongo读取数据,并将它们写入kafka主题。我使用的是mongo kafka源连接器。当我尝试反序列化时,到达我的侦听器的消息抛出以下异常。Creator exists): no String-argument constructor/factory method to deserialize from String value
为什么会出现上述错误
org.apache.kafka.clients.producer.BufferExhaustedException: Failed to allocate memory within the configured这表示当producer无法在配置的最大阻塞时间5ms内为记录分配内存时,将抛出异常。 这是我尝试添加Kafka s3-sink连接器时显示的内容。在两个kafka经纪人中有11个主题,在场的消费者已经从这些主题中消费了。我创建了一个2节点的Kafka
我正在构建一个自定义的Kafka源连接器。此连接器已启动并正在运行。我使用rest API更新连接器配置设置(例如,源端点和连接键)。我使用下面的Rest API PUT /connectors/{name}/config 由于某些问题(例如,错误的密钥),API不会成功,连接器也会失败 接口输出如下所示。请注意,连接器处于failed状态,但任务仍在运行。事实上,它们仍然“连接”到旧的端点和连接键,而不是优雅地终止任务。RUNNING",
我正在尝试部署一个独立的连接作业来从mssql服务器流传输,但是我遇到了一个问题(Kafka-Connect是我的Ambari部署的一部分,而不是docker)。/servernamequery=SELECT * FROM IB_WEBLOG_DUMMY_small
value.converter=org.apache.kafka.connect.json.JsonConverterkey.converter=org.apache.kafka.connect.json.JsonConvert