我已经创建了一个接收器连接器来开始使用死信队列。但是,它显示模式没有发现异常,如下所示:
Caused by: org.apache.kafka.common.errors.SerializationException: Error retrieving Avro key schema version for id 103925
Caused by: io.confluent.kafka.schemaregistry.client.rest.exceptions.RestClientException: Schema not found; error code: 40403
at io
有时我们面临以下问题:
Caused by: org.apache.kafka.common.errors.SerializationException: Error retrieving Avro unknown schema for id 16 Caused by: io.confluent.kafka.schemaregistry.client.rest.exceptions.RestClientException: Schema 16 not found io.confluent.rest.exceptions.RestNotFoundException: Schema 16 not
有人遇到这个错误了吗?
io.confluent.kafka.schemaregistry.client.rest.exceptions.RestClientException: Unexpected character ('<' (code 60)): expected a valid value (number, String, array, object, 'true', 'false' or 'null')\n at [Source: (sun.net.www.protocol.http.HttpURLConnect
我有一个模式注册表,kafka,一个本地生产者运行的动物园管理员。问题是,当我手动注册模式并关闭生产者的自动注册时,当我试图为主题生成记录时,我会得到以下异常。令人困惑的是,在使用POST手动注册之后,我已经验证了模式是可用的,所以not没有真正的意义。在这方面的任何帮助都是非常感谢的。顺便说一句,在生产者上启用自动注册可以完成所有这些工作,但我确实需要关闭它并手动注册我的模式。
Caused by: io.confluent.kafka.schemaregistry.client.rest.exceptions.RestClientException: Schema not found; e
我正在尝试使用Replicator as it is specified in the tutorial将模式注册表从本地集群迁移到Confluent Cloud。它成功地复制了所有的主题,除了几个,我不知道为什么…它会显示以下错误: ERROR Failed to translate schema registry record (io.confluent.connect.replicator.schemas.SchemaTranslator:188)
io.confluent.kafka.schemaregistry.client.rest.exceptions.RestClientEx
我们一直试图在AWS机器上建立一个生产级Kafka集群,但到目前为止,我们一直没有成功。
Kafka版本: 2.1.0
机器:
5 r5.xlarge machines for 5 Kafka brokers.
3 t2.medium zookeeper nodes
1 t2.medium node for schema-registry and related tools. (a Single instance of each)
1 m5.xlarge machine for Debezium.
默认代理配置:
num.partitions=15
min.insync.replicas=1
我的Avro记录类型中的一个字段(abc )最初是强制性的,我试图将其更改为允许空值,但我得到了以下错误:
io.confluent.kafka.schemaregistry.client.rest.exceptions.RestClientException:
Schema being registered is incompatible with an earlier schema for subject.
details: [Incompatibility{type:TYPE_MISMATCH, location:/, message:reader type:
RECORD not
我正在尝试设置一个本地kafka -连接堆栈与坞-撰写,我有一个问题,我的scala生产者,应该发送avro消息到一个卡夫卡主题使用模式注册表。
在我的生产者(scala)代码中,我执行以下操作:
val kafkaBootstrapServer = "kafka:9092"
val schemaRegistryUrl = "http://schema-registry:8081"
val topicName = "test"
val props = new Properties()
props.put("boots
我试图在Kubernetes中部署Schema。然而,当我尝试用部署文件创建一个pod时,它总是以以下错误重新启动:
io.confluent.kafka.schemaregistry.exceptions.SchemaRegistryInitializationException: Error initializing kafka store while initializing schema registry
at io.confluent.kafka.schemaregistry.storage.KafkaSchemaRegistry.init(KafkaSchemaRe
我无法使用KSQL表接收到postgres
我从一个流(源主题是Avro)创建了一个带有聚合的KSQL表。我可以使用SELECT查看数据。我也可以将这个主题直接提交给postgres。然而,我不能沉没到Postgres for KSQL表中。如何指定value.converter?
我按如下方式创建了KSQL表:
CREATE TABLE some_table AS SELECT customer_name, COUNT(*) as cnt FROM some_stream GROUP BY customer_name;
我尝试连接配置,如下所示:
connector.class=io.co
我已经永久删除了kafka主题的模式,现在我无法从主题中反序列化消息,该怎么办。
堆栈跟踪:
Internal Server Error
A 500 error has occurred: Request processing failed; nested exception is org.apache.kafka.common.errors.SerializationException: Error retrieving Avro schema for id 100869
Stack trace
org.apache.kafka.common.errors.SerializationExce