我们在Kubernetes中运行ApacheFlink 1.9。我们有一些工作,消费卡夫卡事件,并收集每分钟的计数。at org.apache.flink.streaming.runtime.io.RecordWriterOutput.pushToRecordWriter(RecordWriterOutput.java:110)
at org.apache.flink.streaming.runtime.io.RecordWriterOutput.collect(RecordW
当我试图用flatMap操作符写出集合时,我得到了非法的状态异常(仅在高负载下):缓冲池被破坏了,我在这里做错了什么?当flink抛出缓冲池错误时?at org.apache.flink.streaming.runtime.io.RecordWriterOutput.pushToRecordWriter(RecordWriterOutput.java:110)
at org.apache.flink.streaming.runtime.io.RecordWrit
在本地环境中,它工作正常,但是当我在EMR集群上部署这个Flink应用程序时,它会抛出一个与兼容性问题相关的异常。at org.apache.flink.api.java.typeutils.TypeExtractor.createHadoopWritableTypeInfo(TypeExtractor.java:2025) at org.apache.flink.api.java.typeutils.TypeExtractor.privateGetFo
这个框架部分是用Scala编写的,在执行单词计数示例时,会抛出一个异常(还有许多其他的异常,我不会发布):at org.apache.flink.runtime.minicluster.FlinkMiniCluster.<init>(FlinkMiniCluster.scala:76)
at org.apache.flink.runtime.minicluster.LocalFlink
我正在使用flink 1.4.2从Kafka读取数据,并使用JSONDeserializationSchema将它们解析为JSONDeserializationSchema。如果传入的记录不是有效的JSON,那么我的Flink作业就会失败。我想跳过破纪录而不想失败。ObjectNode> messageStream = env.addSource(kafkaConsumer);如果Kafka中的数据不是有效的JSON,我将得到以下异常Job execution switched to s
我试图在StreamExecutionEnvironment中使用RuntimeExexutionMode.BATCH运行它,但是应用程序抛出一个异常,因为将我的源代码检测为无界的.而且我不能设置它的限制(它必须完成收集所有文件在mongo集合) exception in thread "main" java.lang.IllegalStateException: Detected(Preconditions.java:193)
at org.apache.f