首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何在gcloud ai-platform中为批量预测向keras模型输入添加'instance key‘?

在gcloud ai-platform中为批量预测向Keras模型输入添加'instance key',可以通过以下步骤实现:

  1. 首先,确保已经安装并配置了Google Cloud SDK,并且已经登录到您的Google Cloud账号。
  2. 在本地创建一个包含要预测的数据的CSV文件。每一行代表一个实例,每一列代表实例的特征。确保CSV文件中包含一个名为'instance key'的列,用于唯一标识每个实例。
  3. 将CSV文件上传到Google Cloud Storage(GCS)中的一个存储桶。您可以使用以下命令将文件上传到GCS:
  4. 将CSV文件上传到Google Cloud Storage(GCS)中的一个存储桶。您可以使用以下命令将文件上传到GCS:
  5. 其中,[LOCAL_FILE_PATH]是本地CSV文件的路径,[BUCKET_NAME]是您的GCS存储桶名称,[FILE_NAME]是要保存在GCS中的文件名。
  6. 创建一个JSON格式的请求文件,用于指定批量预测的参数和输入数据。示例请求文件如下:
  7. 创建一个JSON格式的请求文件,用于指定批量预测的参数和输入数据。示例请求文件如下:
  8. 您可以根据实际情况修改"instances"数组中的实例特征和"instance_key"的值。
  9. 使用gcloud命令进行批量预测,并将请求文件作为输入。运行以下命令:
  10. 使用gcloud命令进行批量预测,并将请求文件作为输入。运行以下命令:
  11. 其中,[MODEL_NAME]是您的AI Platform模型的名称,[VERSION_NAME]是模型的版本名称,[REQUEST_FILE_PATH]是请求文件的路径。

以上步骤将在gcloud ai-platform中为批量预测向Keras模型输入添加'instance key'。请注意,这只是一个基本示例,您可以根据实际需求进行调整和扩展。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

《Scikit-Learn、Keras与TensorFlow机器学习实用指南(第二版)》第19章 规模化训练和部署TensorFlow模型

有了能做出惊人预测的模型之后,要做什么呢?当然是部署生产了。这只要用模型运行一批数据就成,可能需要写一个脚本让模型每夜都跑着。但是,现实通常会更复杂。系统基础组件都可能需要这个模型用于实时数据,这种情况需要将模型包装成网络服务:这样的话,任何组件都可以通过REST API询问模型。随着时间的推移,你需要用新数据重新训练模型,更新生产版本。必须处理好模型版本,平稳地过渡到新版本,碰到问题的话需要回滚,也许要并行运行多个版本做AB测试。如果产品很成功,你的服务可能每秒会有大量查询,系统必须提升负载能力。提升负载能力的方法之一,是使用TF Serving,通过自己的硬件或通过云服务,比如Google Cloud API平台。TF Serving能高效服务化模型,优雅处理模型过渡,等等。如果使用云平台,还能获得其它功能,比如强大的监督工具。

02
领券