Google有云存储数据传输选项,可以从一个存储桶复制到另一个存储桶,但只有当两个存储桶都在同一个项目中时,这才会起作用。作为cron运行,使用gutil -m rsync -r -d是一个简单的选择,但是我们将所有的bash迁移到python3。因此,我需要一个Python3脚本来使用它作为google cloud函数,每周将整个存储桶从project1复制到project2中的另一个存储桶。
Language: python 3
app : Cloud Function
Process : Copy one bucket to another
Source Project: project1
Source bucket : bucket1
Dest Project: project2
Dest Bucket: bucket2
pseudo cmd: rsync -r gs://project1/bucket1 gs://project2/bucket2任何快速可读的python 3代码脚本都可以做到这一点。
发布于 2020-09-22 02:22:55
执行此操作的python脚本将变得非常慢()。我将使用Dataflow (apache bream)批处理进程来完成此操作。您可以很容易地在python3中对此进行编码。
基本上,您需要:
好的部分是Google将为您扩展工人,并且不会花费太多时间。您将为存储操作和移动所有数据所需的to + cpu付费。
https://stackoverflow.com/questions/63988682
复制相似问题