我已经用saved_model.pb和一个variables文件夹在Google ML引擎中上传了模型的一个版本。当我尝试执行该命令时:
gcloud ml-engine local predict --model-dir=saved_model --json-instances=request.json
它显示以下错误:
ERROR: (gcloud.ml-engine.local.predict) 2018-09-11 19:06:39.770396: I tensorflow/core/platform/cpu_feature_guard.cc:141]
Your CPU suppor
在选择存储桶和文件夹之后,在为模型创建新版本的过程中,我从云控制台得到了这个错误。
{
"error": {
"code": 400,
"message": "Field: version.deployment_uri Error: The model directory gs://ml-codelab/v1-output/ is expected to contain the 'export.meta' file. Please make sure it exists and Cloud ML s
当我试图提交一个在Google Cloud-ML中训练模型的工作时,我得到了下面的错误。
RESOURCE_EXHAUSTED: Quota failure for project my_project.
The requested 16.536900000000003 ML Units exceed the allowed maximum of 15.To read more about Cloud ML Engine quota, see https://cloud.google.com/ml-engine/quotas.
- '@type': type.googleapi
目前,我正在GKE上设置一个Kubeflow Pipeline。我们的目标是在ML引擎上开始一项培训工作,然后在GKE上提供服务。 培训作业在Docker容器中启动。(管道中的每个步骤都必须是一个容器。) 在运行容器时,我得到了以下错误: ERROR: (gcloud.ml-engine.jobs.submit.training) You do not currently have an active account selected.
Please run:
$ gcloud auth login
to obtain new credentials, or if you have
gcloud ml-引擎局部预测失败
首先,我用input.json响应确定了所需的saved_model_cli show --all --dir saved_model/结构:
MetaGraphDef with tag-set: 'serve' contains the following SignatureDefs:
signature_def['serving_default']:
The given SavedModel SignatureDef contains the following input(s):
inputs['inputs
我正在尝试将PyPI中未列出的python 与Google Cloud ML引擎一起使用。此包本身具有依赖项,即使在PyPI中列出,也不会默认安装在ML engine环境中,即包。
查看时,并不清楚在这种情况下该如何处理,我尝试将此包打包到.tar.gz文件中,并在--packages参数下传递它,但我得到了以下错误:
File "<string>", line 1, in <module> IOError: [Errno 2] No such file or directory: '/tmp/pip-jnm3Ml-build/setup.py&
当使用以下命令创建ML引擎模型的新版本时
gcloud ml-engine versions create 'v1' --model=model_name --origin=gs://path_to_model/1/ --runtime-version=1.4
我收到以下错误:
ERROR: (gcloud.ml-engine.versions.create) FAILED_PRECONDITION: Field: version.deployment_uri Error: Read permissions are required for Cloud ML service a
我一直在与谷歌的机器学习平台cloudML合作。
总体情况:我正试图找出最干净的方法,让他们的码头在google实例上运行,能够访问cloudML API和我的存储桶。
从本地开始,我配置了我的服务帐户。
C:\Program Files (x86)\Google\Cloud SDK>gcloud config list
Your active configuration is: [service]
[compute]
region = us-central1
zone = us-central1-a
[core]
account = 773889352370-compute@deve
我尝试在cloud ml (google cloud platform)上使用tensorflow后端运行Keras。我发现keras似乎并不使用GPU。在我的CPU上运行一个时期的性能是190秒,等于我在转储的日志中看到的。有没有办法识别代码是在GPU中运行还是在keras中的CPU中运行?有人尝试过在云ML上运行张量流后端的Keras吗??
我正在试着按照这篇文章测试TPU的性能:https://codelabs.developers.google.com/codelabs/tpu-resnet/#0 但在训练作业提交步骤中,Cloud Shell会显示以下错误: ERROR: (gcloud.ml-engine.jobs.submit.training) RESOURCE_EXHAUSTED: Quota failure for project my-proj-495852. The requested 54.0 CPUs exceeds the allowed maximum of 20.0. To read more a
我遵循关于如何将API请求发送到Google的页面。
因此,我使用的是gcloud命令:
gcloud ml video detect-labels gs://cloud-ml-sandbox/video/chicago.mp4
返回预期的json响应。但是,响应只是输出到我的控制台。
现在,我想知道是否有任何方法保存/写入json响应到文件?