at org.apache.orc.impl.ConvertTreeReaderFactory$AnyIntegerTreeReader.nextVector(ConvertTreeReaderFactory.java:445) ~[flink-sql-connector-hive-3.1.2_2.11-1.11.2.jar:1.11.2]java.lang.ArrayIndexOu
我正在从Kafka读取数据,并尝试以ORC格式将其写入HDFS文件系统。我使用了来自他们官方网站的以下链接参考。103KB https://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/connectors/streamfile_sink.html#orc-formatstring,_col4:string>"
val writerProperties = new Properties()
我完全开始进入hbase数据存储,我们目前正在迁移具有orc文件格式的hive外部文件系统。在过去的两年中,数据需要移动到hbase表中,我很少看到批量加载方法使用hcatalog和pig,但没有使用orc文件格式。你能在这个问题上帮助我或给我一些建议吗?array<STRING>,id2:array<BIGINT>>,)stored as orc