我们正在使用低级处理器API开发一个Kafka Streams应用程序。 根据Kafka上的文档,所有的线程和并行性都是由Stream线程和流任务处理的。使用主题上的分区,并行性也是可扩展的。Write back to output topic }); } 但是,是否建议在任何情况下创建我们自己的<e
我正在使用flink程序将我从kafka获得的流数据写入Azure data Lake。当我使用同步来获取ADLOutputStream、写入和关闭时,它工作得很好,但是性能非常差,因为只有一个线程在写数据lake.When我使用多个线程而没有同步它抛出了http 400非法参数异常。有没有办法让多个线程在Azure数据湖中写入一个文件?