我们的一些POJO包含来自java.time接口(LocalDate,LocalDateTime)的字段。当我们的管道处理它们时,我们可以在日志中看到以下信息:
org.apache.flink.api.java.typeutils.TypeExtractor - Class class java.time.LocalDate据我所知,LocalDate不能归类为POJO,所以flink不使用POJO</em
我使用flink动态地分析json类型数据,并使用给定列进行keyby和sum,在我的mapFunction中,我将json转换为case类,但是结果流没有在keyBy函数中得到编译器,得到了这样的错误Exception in thread "main" org.apache.flink.api.common.InvalidProgramException: This type (GenericType<java.lang.Object>) cannot
不是一个错误,但我确实看到了这一行,根据消息可能会影响性能: 2019-01-02 14:44:44,879 INFO org.apache.flink.api.java.typeutils.TypeExtractor- class org.apache.flink.streaming.connectors.kafka.internals.KafkaTopicPartition 2019-01-02 14:44:44,8
,它有一个字符串字段'keyfield‘。然后在这个字段上输入流。at org.apache.flink.util.Preconditions.checkNotNull(Preconditions.java:75)
at org.apache.flink.runtime.state.heap.CopyOnWriteStateTable.checkKeyNamespacePreconditions(CopyOnWriteStateTable.ja
我有一个类可以满足作为POJO处理的需求,这是流作业中的主要传输类(它只包含原语和Map<String, String>)。我添加了一个新的String字段和相应的getter和setter,但是如果我停止使用带有保存点的前一个类的作业,并尝试使用它重新启动新类,则会得到一个异常: at org.apache.flink.runtime.taskmanager.Task.doRun(Tas