我正在尝试设置一个本地kafka -连接堆栈与坞-撰写,我有一个问题,我的scala生产者,应该发送avro消息到一个卡夫卡主题使用模式注册表。
在我的生产者(scala)代码中,我执行以下操作:
val kafkaBootstrapServer = "kafka:9092"
val schemaRegistryUrl = "http://schema-registry:8081"
val topicName = "test"
val props = new Properties()
props.put("boots
我已经在Ubuntu16.04机器上安装了汇合平台,最初我已经配置了动物园管理员、Kafka和ksql,并启动了合流平台。我能看到下面的信息。
root@DESKTOP-DIB3097:/opt/kafkafull/confluent-5.1.0/bin# ./confluent start
This CLI is intended for development only, not for production
https://docs.confluent.io/current/cli/index.html
Using CONFLUENT_CURRENT: /tmp/confluen
我正在尝试使用以下命令启动kafka-connect:
connect-distributed /etc/schema-registry/connect-avro-distributed.properties
,但是我得到了:
[2017-02-15 12:45:35,962] INFO Instantiated task mysql-adventureworks-source-0 with version 3.1.2 of type io.confluent.connect.jdbc.source.JdbcSourceTask (org.apache.kafka.connect.runtim
我试图在Kubernetes中部署Schema。然而,当我尝试用部署文件创建一个pod时,它总是以以下错误重新启动:
io.confluent.kafka.schemaregistry.exceptions.SchemaRegistryInitializationException: Error initializing kafka store while initializing schema registry
at io.confluent.kafka.schemaregistry.storage.KafkaSchemaRegistry.init(KafkaSchemaRe
我正在尝试使用Replicator as it is specified in the tutorial将模式注册表从本地集群迁移到Confluent Cloud。它成功地复制了所有的主题,除了几个,我不知道为什么…它会显示以下错误: ERROR Failed to translate schema registry record (io.confluent.connect.replicator.schemas.SchemaTranslator:188)
io.confluent.kafka.schemaregistry.client.rest.exceptions.RestClientEx
我正在使用带有MockSchemaRegistryClient的为我们的kafka系统构建一个集成测试。我正在为我们的一个Stream拓扑构建一个测试,该拓扑是使用Streams API (KStreamBuilder)构建的。此特定拓扑将KStream (stream1)送入KTable (table1)。
我在将来自表1的KTableProcessor的输入馈送到stream1时遇到错误:
Exception in thread "mortgage-kafka-consumers-it-c1dd9185-ce16-415c-ad82-293c1281c897-StreamThrea
我已经创建了一个接收器连接器来开始使用死信队列。但是,它显示模式没有发现异常,如下所示:
Caused by: org.apache.kafka.common.errors.SerializationException: Error retrieving Avro key schema version for id 103925
Caused by: io.confluent.kafka.schemaregistry.client.rest.exceptions.RestClientException: Schema not found; error code: 40403
at io