:2.32.0 > org.apache.beam:beam-sdks-java-io-kafka:2.32.0
> Could not resolve io.confluent:kafka-avro-serializer/5.3.2/kafka-avro-serializer-5.3.2.pom'/kafka-avro-serializer-5.3.2.pom':2.32.0 > org.apache.beam</e
问题:我正在尝试创建一个云数据流管道,该管道使用Python从Google读取文件,并在Google上进行一些处理和回写一个Avro文件。我使用了ReadFromAvro和WriteToAvro函数。我试图实现的是读取一个Avro文件并使用Dataflow编写相同的Avro文件,但是它给了我以下警告,并且没有输出一个avro文件。(pipeline_args)
p = beam.Pipeline(options=pipeline_options
我在寻求帮助- 这是代码- // Get AvroSchemaSchemaschema= new Schema.Parser().parse(schemaJson);
// Check schema field types before starting the Dataflow jobapply(AvroToCsv.java:1
Q1:假设我使用BigQuery加载工具加载Avro编码的数据。现在我需要将这些数据写入到不同的表中,仍然是Avro格式。我正在尝试测试不同的分区,以便测试表的性能。如何使用Beam将SchemaAndRecord写回BigQuery?在这种情况下,模式检测也能工作吗?Q2:从Avroschema type转换为Avroschema type时,似乎丢失了架构信息。例如,在BigQuery中,double和float Av