我试着用Kafka inegration运行一个简单的ApacheFlink脚本,但我一直在执行中遇到问题。脚本应该读取来自kafka制作人的消息,详细说明它们,然后再次将处理结果发送回另一个主题。我从这里得到了这个例子:Exception in thread "main" java.lang.NoSuchFieldError:ALL
at org.apache.fli
因此,我正在尝试在我的FlinkKafka流媒体作业中启用EXACTLY_ONCE语义以及检查点。我得到的异常是: org.apache.kafka.common.KafkaException: org.apache.kafka.common.KafkaException: Failed to construct<init>(KafkaProducer.java:360)
... 12 more 为了在我
我有一份Flink的工作,把数据写进卡夫卡。Kafka主题的最大消息大小设置为5MB,所以如果我尝试编写任何大于5MB的记录,它会抛出以下异常并将作业降低。message size the server will accept.
at org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducerBase.checkErroneous(FlinkKafkaProducerB
+= "org.apache.flink" %% "flink-connector-kafka_2.11" % "1.9.1" -- This not working and throwing unable由于我无法通过sbt添加flink-连接器-kafka,所以我下载了jar并将其放在sbt项目中的lib(created )文件夹中。现在,当我导入卡夫卡连接器包,即import org.<
在将消息发布到flink应用程序的kafka主题时,会出现此错误。相同的代码在我们的测试环境中工作,具有类似的生产者配置,但在生产环境中失败。我找不到这个问题的原因。Timestamp should always be non-negative or null.
at org.apache.kafka.clients.producer.ProducerRecord.<init>(Prod
我一直试图使用文档中的参数sink.buffer-flush.max-rows和sink.buffer-flush.interval缓冲来自upsert连接器的输出。每当我尝试运行带有缓冲的INSERT查询时,我都会收到以下错误(缩写为简洁): at org.apache.flink.streaming.connectors.kafka.table.ReducingUps