我得到的错误信息是$ cd flink-0.9.0
$ .Diagnostics: File file:/home/hadoop/.flink/application_1439466798234_0008/flink-conf.yaml does not existjava.io.FileNotFoundException: File file:/home/hadoop
我正在尝试使用Linux和Windows上的Flink local来完成我的学士论文。我找到了用于本地设置的以下步骤:-bash: bin/start-local.sh: No such file or directory/flink-1.1.2/flink-dist/src/main/flink-bin/con
我创建了一个成功的Flink本地Kubernetes集群(1.14.2)。我正在尝试更新logback配置,我正在使用Flink本地Kubernetes公开的configmap。Flink本机Kubernetes在集群开始时创建这个configmap,并在集群停止时删除它,此行为与正式文档相同。但是Flink没有加载(热重新加载)这个logback配置。
此外,我希望确保即使在集群重新启动期间,logback con