我是hadoop和大数据技术的新手。我喜欢将拼花文件转换为avro文件并读取数据。我在几个论坛上搜索,它建议使用AvroParquetReader。reader = new AvroParquetReader<GenericRecord>(file);但我不知道如何将我可以使用shell读取这个文件,并可能将其转换为一些JSON,然后将该JSON转换为avro。但我正在寻找
我有一个复杂/嵌套的Hive-External表,它是在HDFS上创建的(文件采用avro格式)。当我运行配置单元查询时,它会显示所有记录和分区。但是,当我在Spark中使用相同的表时: val df = spark.format("avro").option("avroSchema",但是,当我使用spark</em