hive表应该具有按日期分区的S3位置中的ORC格式的底层文件。我用ORC格式将scala数据写入S3。BY (date string)LOCATION "S3Location"但是hive表是空的,即spark.sql("select * from db.tableName")没有打印结果。string, date stri
这个查询中的错误是什么: SELECT COUNT(*) AS cnt,cod_documento FROM op_documentosxmateriais(近)(“在第34位置”)这类从句以前曾作过分析。(靠近42位置的“选择”)意外结束托架。(近")“在第137位置)这种类型的从句以前曾被分析过。(在144位置靠近"GROUP“)未识别的语句类型。