当我想要发送一条AVRO消息,其中包含一个类型为long的字段时,我得到了以下错误:
Caused by: org.apache.kafka.common.errors.SerializationException: Error deserializing Avro message for id 61
Caused by: java.lang.ClassCastException: java.lang.Long cannot be cast to org.joda.time.DateTime
我使用Confluent 3.2.0和Apache Spark 2.2.0。此错误在Spark Job中抛出,该作业处理AVRO消息并在控制台中打印它们。在AVRO模式中,对应的字段定义如下:
{\"name\": \"event_time\", \"type\": { \"type\" : \"long\", \"logicalType\": \"timestamp-millis\"}}
在.avsc
文件生成的Java类中,该字段定义如下:
private DateTime event_time;
发布于 2018-03-16 20:50:53
我在使用Confluent 4.0.0和Avro 1.8.2时遇到了类似的问题。我有一个流处理器,它试图将long类型转换为DateTime类型。我通过添加正确的转换克服了这个问题。在开始任何处理逻辑之前,我使用了Specific Data静态实用程序类并添加了正确的逻辑类型转换。
SpecificData.get().addLogicalTypeConversion(new TimeConversions.TimestampConversion());
发布于 2019-10-08 13:39:55
在Avro 1.9.X和更高版本中,符号TimestampConversion
不再存在。将@user3222582中的上述代码替换为TimestampMillisConversion
修复了avro 1.9.2中的编译错误
发布于 2020-01-28 06:49:42
尝试将avro依赖中的avro版本和pom.xml中的avro-maven-plugin升级到1.9.X
<dependency>
<groupId>org.apache.avro</groupId>
<artifactId>avro</artifactId>
<version>1.9.1</version>
</dependency>
<plugin>
<groupId>org.apache.avro</groupId>
<artifactId>avro-maven-plugin</artifactId>
<version>1.9.1</version>
<executions>
<execution>
<phase>generate-sources</phase>
<goals>
<goal>schema</goal>
<!--<goal>idl-protocol</goal>-->
</goals>
<configuration>
<sourceDirectory>${project.basedir}/src/main/avro</sourceDirectory>
<outputDirectory>${project.basedir}/src/main/java</outputDirectory>
<enableDecimalLogicalType>true</enableDecimalLogicalType>
<stringType>String</stringType>
</configuration>
</execution>
</executions>
</plugin>
还要确保从AVRO模式中删除以前生成的类,并执行mvn编译。
https://stackoverflow.com/questions/47867866
复制相似问题