我想在本地使用以下命令对我的模型进行培训:
gcloud ml-engine local train
--module-name cloud_runner
--job-dir ./tmp/output
问题是它抱怨--job-dir: Must be of form gs://bucket/object。
这是一个本地培训,所以我想知道为什么它希望输出是一个gs存储桶,而不是一个本地目录。
我使用了很长一段时间的“预测”命令这个周末开始遇到一个错误:
$ gcloud beta ml predict --model my_model --json-instances my_instance.json
WARNING: The `gcloud beta ml` commands have been renamed and will soon be removed. Please use `gcloud ml-engine` instead.
ERROR: (gcloud.beta.ml.predict) value for field [projectsId] for in co
我使用tensorflow训练了一个图像分类器,并将其部署在云中。当我在本地执行预测时,我会得到一个结果,而当我使用我部署的模型执行批量预测时,我会得到不同的结果。 为了在本地执行预测,我使用以下script 要使用云执行预测,我首先调整图像大小并将其转换为float32数组(模型使用该类型进行训练),然后使用以下方法将其保存为JSON文件: import skimage, json
from PIL import Image
from resizeimage import resizeimage
with open('xxx.jpg', 'r+b') a
每当我尝试使用命令向gcloud提交培训作业时
gcloud ml-engine jobs submit training
它给出了配额错误,即
The requested 60.0 CPUs exceeds the allowed maximum of 20.0.
即使是我也从来没有在命令中定义60.0个CPU。根据谷歌的说法,我们需要增加配额才能做到这一点。有没有办法坚持配额为20.0的CPU,并在GCP上训练模型?
要提交来自gcloud ai-platform (ex ml-engine)的培训工作,可以使用gcloud中的:
gcloud ai-platform jobs submit COMMAND [GCLOUD_WIDE_FLAG …]
我想以编程的方式来做这件事,例如从python代码(或任何其他语言)。有点像
import gcloud-ai-platform as gap
gap.submit_job(COMMAND)
有这样的命令吗?如果它不存在,我如何构建一个解决方案?(以编程方式使用gcloud sdk )
我已经从本地使用命令进行了如下训练:
gcloud ml-engine jobs submit training task43 --module-name=train.train --config=config.yaml --job-dir=gs://root-album-8512 --package-path=train --region=asia-east1 --staging-bucket=gs://root-album-8512
训练结束后,我在哪里可以找到我的输出训练目录?在我的日志作业中,写入了"Saved model checkpoint to /user_dir/run
我在尝试使用gcloud ml-engine predict时遇到以下错误
ERROR: (gcloud.ml-engine.predict) HTTP request failed. Response: {
"error": {
"code": 429,
"message": "Prediction server is out of memory, possibly because model size is too big.",
"status": "RESOURCE_EXH