我最近无法将任何jars上传到我的Flink集群,该集群在AWS EMR上的YARN下运行。有一个长时间运行的流媒体应用程序已经运行了26天。似乎临时目录已经被删除了,但我真的不认为我删除了它。在jobmanager.log中: 2019-02-12 22:02:05,156 WARN org.apache.flink.runtime.webmonitor.handlers.JarListHandler- Jar upload dir /tmp/flink<
我得到的错误信息是$ cd flink-0.9.0
$ .Diagnostics: File file:/home/hadoop/.flink/application_1439466798234_0008/flink-conf.yaml does not existjava.io.FileNotFoundException: File file:/home/hadoop
我在amazon EMR上使用Flink,并希望将我的流水线结果流式传输到s3存储桶中。我使用的是Flink版本=> 1.11.2 这是代码片段,展示了代码现在的样子,变量: val outputPath = new Path("s3://test/flinkStreamTest/failureLogs:528) at org.apache
我想将NewRelic工具添加到flink作业中。我看不出在哪里可以向bin/flink run <job>命令传递额外的类路径/其他参数。NewRelic java代理希望将-javaagent:<path to jar>添加到执行路径中。传递配置文件路径也是可取的。编辑:env.java.opts: "-javaagent:/opt/newrelic
python脚本相当简单,我只是尝试使用现有主题中的内容,并将所有内容发送到标准输出(或日志目录中的*.out文件,默认情况下,输出方法将在该文件中发出数据)。flink-1.6.1/lib'] for jar in glob.glob(os.path.join(directory,'*.jar文件,即flink-connector-kafka-0.9_2.11-1.6.1.jar、