我已经训练了10个不同的TensorFlow模型来进行样式转换,基本上每个模型都负责根据样式图像对图像应用滤镜。因此,每个模型都是独立运行的,我希望将其集成到一个应用程序中。有没有办法使用AWS部署这些模型?
我尝试使用API部署这些模型,然后使用AWS Lambda的端点,最后使用API Gateway创建SageMaker。但是这里的问题是,我们只能在SageMaker上部署一个模型,但在我的例子中,我想部署10个不同的模型。
我希望在我的应用程序中提供每个模型的链接,因此选择的过滤器将在AWS上触发模型并应用过滤器。
发布于 2020-01-18 02:17:52
我对类似的东西所做的是,我创建了自己的docker容器,并使用能够加载和预测多个模型的api代码。应用程序接口,当它启动时,它从S3存储桶中复制一个model.tar.gz,在该tar.gz中是我所有模型的权重,然后我的代码扫描内容并加载所有模型。如果你的模型太大(内存消耗),你可能需要以不同的方式处理这个问题,就像here所说的那样,它只在你调用predict时加载模型。我在一开始就加载了所有的模型,以获得更快的预测速度。这实际上并不是代码上的大变化。
我现在正在尝试的另一种方法是让API Gateway调用多个Sagemaker端点,尽管我没有找到很好的文档。
发布于 2020-01-21 04:16:35
有几个选项,最终的选择取决于您在成本、延迟、可靠性和简单性方面的优先级。
中
https://stackoverflow.com/questions/56536882
复制相似问题