在FlinkSQL上使用带有Kerberos身份验证的Kafka数据源,Flink的本地测试已经通过,但当我将任务推到纱线上时,错误消息提示无法找到Kafka的JAAS文件!<init>(KafkaConsumer.java:820) ~[byit-flink-sql-engine.jar:4.1.1]
at org.apache.flink.kafka.sh
我有一个Flink作业,它在本地运行得很好,但当我尝试在集群上运行flink作业时失败。当尝试通过'connector‘= ' Kafka’从kafka加载数据时发生错误。我使用Flink-Table API和confluent-avro格式从Kafka读取数据。所以基本上我创建了一个从kafka主题中读取数据的表: val inputTableSQL =
s
这项工作是使用卡夫卡连接器源(flink-连接器- Kafka -0.11),我正在尝试分配时间戳和水印。我的代码非常类似于中的Scala示例。<init>(Kafka09Fetcher.java:89)
at org.apache.flink.streaming.connectors.kafka.internal.Kafka010Fetcher包括提供的卡夫卡消息来源?据我在org.apache.<em
嗨,我有一个Flink流处理的maven项目。根据我从流中获得的消息,我启动了一个批处理过程,但目前我收到了一个错误。
我是这个flink世界的新手,如果你有任何想法,请让我知道。获取错误: org.apache.flink.client.program.ProgramInvocationException:无法检索JobManager网关。(AbstractFetcher.java:269) at org.apache.flink.