在这个中,Apache建议在写入BigQuery时使用死信模式。此模式允许您用'FailedRows'标记从转换输出中获取未能写入的行。_avro_writer.write(row) File "fastavro/_write.pyx", line 647,
in fastavro.in process writer.write(row) File "/my_code/apa
我正在尝试通过数据流模板"Pub/Sub Avro to Bigquery“将数据从Pub/Sub流式传输到Bigquery。Pub/Sub中的数据是AVRO格式的,来自Kafka主题。我从模式注册表中获得的相应模式文件。它看起来是这样的: {"type":"record","name":"KsqlDataSourceSchema","namespace":"
.apply(Flatten.iterables())问题
我的问题是如何在我的管道中注册编码器由于pipleline将来可以从Cat Kafka或Dog Kafka以及蟾蜍Kafka中读取,所以我需要一种通用的方法来注册编码器,它可以序列化在运行时决定的SpecificRecordBase的所有子类: org.apache.avro.AvroRuntimeException: Not a Specific class: cl