我正在使用Azure Data Factory将数据从Azure data Lake Store复制到Cosmos DB中的集合。我们将在数据湖中有几千个JSON文件,每个JSON文件大约。3 GB。我正在使用数据工厂的复制活动,在初始运行中,一个文件需要3.5h才能加载,收集组设置为10000 RU/s,数据工厂使用默认设置。现在我已经将其扩展到50000 RU/s,将cloudDataMovementUnits设置为32,将writeBatchSize设置为10,看看是否提高了速度,现在加载相同的文件需要2.5小时。尽管如此,加载数千个文件的时间将会很长。