我有大量数据,正在将其从teradata导入hdfs。在执行此操作时,通常会出现假脱机空间不足,因此作业会失败。对此有什么解决方案吗?是否可以根据数据大小动态分配假脱机空间?或者,我们是否可以将数据从sqoop import加载到临时缓冲区,然后将其写入hdfs?
https://stackoverflow.com/questions/48637013
相似问题