我们希望在读取来自kafka的消息时实现并行性。因此,我们希望在flinkkafkaconsumer中指定分区编号。它将读取kafka中所有分区的消息,而不是特定的分区号。kafkaConsumer = new FlinkKafkaConsumer<String>("EventLog", new SimpleStringSchema(), properties); 请建议任何更好的选项来获得并行性
我无法在Amazons中启动Apache的纱线会话。我得到的错误信息是$ cd flink-0.9.0
$ .Diagnostics: File file:/home/hadoop/.flink/application_1439466798234_0008/flink-conf.yaml does not existjava.io.File