首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >在spark structured streaming中反序列化kafka avro主题时,int编码无效

在spark structured streaming中反序列化kafka avro主题时,int编码无效
EN

Stack Overflow用户
提问于 2019-04-30 13:21:00
回答 2查看 1.3K关注 0票数 1

我正在尝试使用spark structured streaming (2.3.1版)处理来自kafka的avro数据流,所以我尝试使用this示例来反序列化。仅当主题value部件包含StringType时才有效,但在我的示例中,架构包含long and integers,如下所示:

代码语言:javascript
复制
public static final String USER_SCHEMA = "{"
        + "\"type\":\"record\","
        + "\"name\":\"variables\","
        + "\"fields\":["
        + "  { \"name\":\"time\", \"type\":\"long\" },"
        + "  { \"name\":\"thnigId\", \"type\":\"string\" },"
        + "  { \"name\":\"controller\", \"type\":\"int\" },"
        + "  { \"name\":\"module\", \"type\":\"int\" }"
        + "]}";

因此,它在

代码语言:javascript
复制
sparkSession.udf().register("deserialize", (byte[] data) -> {
GenericRecord record = recordInjection.invert(data).get(); //throws error at invert method.
return RowFactory.create(record.get("time"), record.get("thingId").toString(), record.get("controller"), record.get("module"));
    }, DataTypes.createStructType(type.fields()));

代码语言:javascript
复制
Failed to invert: [B@22a45e7
Caused by java.io.IOException: Invalid int encoding.

因为我在模式long and int类型中使用了time, controller and module

我猜这是字节数组byte[] data的某种编码和解码格式错误。

EN

回答 2

Stack Overflow用户

发布于 2019-06-12 03:30:18

你有没有看过这个https://issues.apache.org/jira/browse/AVRO-1650。它专门讨论了你可能会遇到的问题。默认的UTF-8编码可能会在编码/解码过程中导致丢失。

我还建议,如果您正在处理二进制编码的数据,请使用Base64编码来保存/传输数据,因为这利用了ISO-8859-1,这是上面链接使用的正确编码。

票数 2
EN

Stack Overflow用户

发布于 2020-11-07 23:22:28

我也遇到过这种情况,我猜你可能配置了你的kafka值--反序列化器是默认的字符串反序列化器,你可以试着把反序列化器改成org.apache.kafka.common.serialization.ByteArrayDeserializer.

这就是我的解决方案。

希望能帮到你

票数 -1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/55914401

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档