几周来,我一直在阅读ML在生产中的不同方法。我决定测试Kubeflow,并决定在GCP上测试它。我开始使用Kubeflow官方网站(这里是https://www.kubeflow.org/docs/gke/)上的guiidline在GCP上部署kubeflow。我遇到了很多问题,很难解决。我开始寻找一种更好的方法,我注意到GCP AI platform现在只需几个简单的步骤就可以部署Kubeflow管道。(https://cloud.google.com/ai-platform/pipelines/docs/connecting-with-sdk.) 在轻松设置之后,我几乎没有什么疑问和疑虑
我刚刚在Google vertex AI上部署了一个ML模型,它可以使用vertex AI网络界面进行预测。但是,例如,是否可以从浏览器向该部署的模型发送请求。就像这样 http://myapp.cloud.google.com/input="features of an example" 并将预测结果作为输出。谢谢
我希望在一个地方管理我所有的Google Cloud机器学习模型(例如AI平台/Kubeflow/AutoML)。但是,我不确定在哪里可以找到AutoML,特别是我已经部署的AutoML表和模型。 随着复杂性的增加,我希望能够将AutoML模型移植到AI平台模型以迭代版本。此外,如果我想进行进一步的定制,我还可以将该模型引入Kubeflow,以进一步定制、版本化、管理和部署。 AI Platform、AutoML和Kubeflow的所有不同模型是如何管理和版本化的?
我想在顶点ai,GCP中部署我的模型(Tensorflow)。我所采取的步骤如下:
使用区域asia-southeast1(singapore)在Google云存储中创建一个新桶。
在这个桶中,我上传了我的tensorflow模型文件夹(pb扩展)。
我尝试用区域asia-southeast1(singapore)导入顶点ai中的tensorflow模型。
对于模型工件位置,我输入了正确的路径。但是,我得到了以下错误:
Model artifact must be in the same region as your model (asia-southeast1).
我