Spark读取Kafka流。在这个目录中,我有一个json文件,文件路径很快。但是snappy不会被创建。 从不同的docker容器中,我尝试读取拼图文件。pyspark.sql.utils.AnalysisException: Path does not exist: file:/tmp/edge/parquet; 如果我尝试使用spark shell读取:我有一个错误文件.snappy.par
我只是试图在单元格中创建一个表,该表存储为一个拼花文件,然后将保存数据的csv文件转换为一个拼图文件,然后将其加载到hdfs目录中,插入values.below是我正在执行的序列,但没有效果:CREATE external table if not EXISTS db1.managed_table55 (dummy string)
stored as parquetlocation '/hadoop/db1/managed_t