我正在尝试将数据从file stores复制到google cloud bucket。
下面是我使用的命令:
gsutil rsync -r /fileserver/demo/dir1 gs://corp-bucket
corp-bucket: Name of my bucket
/fileserver/demo/dir1: Mount point directory (This directory contain the data of the file store)
该命令第一次运行良好,它将目录/fileserver/demo/dir1的数据复制到云桶中,但随后我从云桶中删除数据,并
我们目前正在评估使用谷歌存储的近线备份。所讨论的服务器位于Hetzner数据中心内,平均为80-100 data /S上游和300-500 data/S下游。我们使用谷歌gsutil访问存储和它的rsync命令同步我们的备份目录。虽然下载速度足够快,但上传文件的时间太长了:最大上传速度约为8-11 11Mbit/S。这种情况只发生在gsutil上,并不能真正用于备份存储位置。我知道大文件应该使用并行复合上传方式上传,但是谷歌建议而非使它靠近线。
现在,我的问题是,这些低上传速度预期吗?有没有优化它的方法?事实上,我们生成的数据比谷歌存储( Google )还多,而且还需要寻找其他解决方案。
我试图使用powershell中的gsutil将文件复制到gs桶中,忽略了一些文件扩展名,但我发现了一个错误,即“.*.scss”不是命令:
PS W:\> gsutil -m rsync -x ".*^.gz$^|.*^.scss$^|.*^.less$^|.*^.pdf$^|.*^.zip$" -d -r ./ gs://BUCKET
'.*.scssecho' is not recognized as an internal or external command
operable program, or a batch file.
# With