我有一个gcp存储桶,希望找到深度为2的每个子目录的大小。 例如: GCP bucket is : gs://gcp-bucket/
It has folders under it, in the below way
gs://gcp-bucket/city/a/
gs://gcp-bucket/city/b/
gs://gcp-bucket/city/c/
gs://gcp-bucket/city/d/ 我想从Linux服务器上找到上述每个文件夹结构的大小。这些文件夹下有文件,但我只想找到目录大小,而不是它下面文件的大小。 我尝试使用gsutil命令,但它不起作用。
试图移动一个拥有1亿多个文档的MongoDB数据库。将其从AWS中的服务器移到GCP中的服务器。试过了mongodump --它成功了,但是mongorestore一直在犯错误-
error running create command: 24: Too many open files
这是如何做到的呢?
不希望通过在AWS服务器上创建脚本进行传输,以获取每个文档并推送到GCP服务器上的API端点,因为这将花费太长的时间。
编辑(添加更多细节)已经尝试将ulimit -n设置为无限。不工作,因为GCP有一个无法修改的硬编码限制。
我安装gcp是因为我经常将大目录从一个地方复制到另一个地方,我希望看到一个进度条来知道它需要多长时间,但是这是在一个最小的服务器上运行的,所以我没有X,运行gcp会产生这样的错误:
Traceback (most recent call last):
File "/usr/bin/gcp", line 678, in <module>
gcp = GCP()
File "/usr/bin/gcp", line 205, in __init__
raise e
dbus.exceptions.DBusException: org
我们目前在前端有一个Angular 9 GCP App Engine实例,在后端有一个Django GCP Cloud Run服务。我们希望Angular应用程序从元数据服务器查询GCP中的JWT令牌,我们将把它放在后端的每个请求的头部中。在根据进行查询时,我们不断得到以下“混合内容”错误。
Mixed Content: The page at {our App Engine url} was loaded over HTTPS, but requested an insecure XMLHttpRequest endpoint 'http://metadata.google.inte
我有一个Jenkins管道,它使用Terraform并在GCP中创建一个计算环境。在构建中有五个问题。
1) GCP Project Name
2) Number of RHEL Servers
3) RHEL Server names
4) Number of CentOS Servers
5) CentOS Server names
这是一个标准的构建作业,如果不使用此生成,用户就无法构建服务器。
问题是,当用户回来请求更多的服务器时,他们必须再次填满所有的细节。他们必须记住以前传递的所有值。
因此,问题是:如何使这个用户友好,而不为每个GCP项目创建单独的构建作业,并对这些值进行硬编码。
谷歌云平台引发了一个错误,比如:Error: Server Error The server encountered a temporary error and could not complete your request. Please try again in 30 seconds.
我们有GCP,CDN和Google Cloud负载均衡与GCP。
我们如何修复这个服务器错误?