我们要做的是模型服务基础设施。我正在比较Google AI Prediction和kfserving。但是我找不到足够的文档来描述google ai服务的特性以及它是如何实现的。
似乎gcloud ai-platform versions create
可以创建模型版本资源并开始服务,这是我唯一能找到的点。
我有三个问题:
谷歌人工智能服务和kfserving之间的关系是什么?
2,gcloud ai-platform versions create
是如何工作的?
3、关于google ai服务的功能,google ai服务是否提供了https://www.kubeflow.org/docs/components/serving/overview/中列出的所有功能,如金丝雀部署、解释器、监控等。
谢谢
发布于 2020-04-21 06:29:19
您共享的文档包含有关Google AI Platform Prediction的大量信息。总之,它是GCP中的一个托管服务,您不需要管理基础设施。您只需部署您的模型,一个新的REST端点将可供您开始通过SDK或API发送预测。
Docker
GPU型号versions
发布于 2022-02-17 17:36:14
在数据上使用-Train ML模型:
训练模型评估模型精度调整超参数
-Deploy你的训练模型。
对模型的-Send预测请求:
在线预测批量预测(仅适用于TensorFlow )
-Monitor在持续的基础上进行预测。
-Manage您的模型和模型版本。
https://stackoverflow.com/questions/61243918
复制相似问题