随着谷歌最近发布了整合了所有顶点AI平台的MLOps,我想知道在GKE顶点AI (或AI平台统一版)上为一个经过自定义培训的PyTorch/Tensorflow模型提供服务有什么区别,因为刚刚进行了品牌重组,而AI平台已经提供了提供模型预测的能力。
我做了很多研究,但发现这方面的信息很少。我已经在GKE上托管了我的ML模型,是否值得迁移到顶点AI?
注意:我还没有计划在云上进行培训和其他数据预处理。
发布于 2021-06-15 14:09:29
值得考虑的是,顶点AI:
顶点AI是一个“管理的”ML平台,为从业者加速实验和部署人工智能模型。在部署/培训/预测ML模型时,我们不需要管理基础设施/服务器/健康状况。顶点AI会照顾你,并根据流量缩放。
有助于考虑顶点AI的一些关键特性:
一旦对模型进行了训练,我们就会得到详细的模型评估指标和特征属性。(特征属性告诉模型中哪些特征最能显示模型的预测,从而深入了解模型在引擎盖下的表现)
一旦对模型进行了培训,就可以将其部署到端点。模型之间的通信量可以分割用于测试,机器类型也可以定制。
顶点管道有助于避免模型漂移的概念,当模型周围的环境发生变化时,就会发生这种情况。顶点管道可以帮助自动化这一保留工作流。
顶点模型监控可以用来检测诸如漂移和训练服务-倾斜之类的东西,因此,与其手动检查以确保模型仍然正确运行,使用顶点AI提供了对模型可靠性的信心,因为我们会随时收到通知。
发布于 2021-11-11 20:39:28
我也一直在探索使用顶点AI进行机器学习。在使用自定义容器提供模型预测时,我发现以下几点很有用:
https://stackoverflow.com/questions/67930882
复制相似问题