我目前正在使用athena处理和执行ETL -从其中我获得了csv文件,其中包含要加载到aurora rds表中的整个数据集。我发现从S3加载数据是加载数据的一种选择。因为这些文件非常大,大约有10 GB,有4-500万行数据。极光能否处理来自同一文件的如此巨大的数据负载,或者在此过程中是否会有超时。如果有必要,如何才能使这些过程更有效?
https://stackoverflow.com/questions/55092619
相似问题