我有一个从迁移中创建的Hudi表,所以它有数十亿行。迁移时没有问题,但当我开始流式传输以开始向该表写入新数据时,发生了以下错误: ? ERROR - error producing records (org.apache.hudi.common.util.queue.BoundedInMemoryExecutor.lambda$nullorg.apache.parquet.io.ParquetDecodingException: Can not
我有这样的SQL: SELECT column3, column4 FROM table2 WHERE column5 = 'value'rows.SELECT column3, column4 FROM table2 WHERE column5 = 'value' table1有3,500,000行,有900,000行,没有寄存器(0),也需要0.004次,table1也需要0.004秒。
但是,当我在INSERT INTO SELECT语句中将两者组合起来时,如