创建一个容器化的机器学习模型

数据科学家在创建机器学习模型后,必须将其部署到生产中。要在不同的基础架构上运行它,使用容器并通过 REST API 公开模型是部署机器学习模型的常用方法。

-- Sven Bösiger

致谢

编译自 |

https://fedoramagazine.org/create-containerized-machine-learning-model/

作者 | Sven Bösiger

译者 | geekpi 共计翻译:855.5篇 贡献时间:1876 天

数据科学家在创建机器学习模型后,必须将其部署到生产中。要在不同的基础架构上运行它,使用容器并通过 REST API 公开模型是部署机器学习模型的常用方法。本文演示了如何在Podman

[1]

容器中使用Connexion

[2]

推出使用 REST API 的TensorFlow

[3]

机器学习模型。

准备

首先,使用以下命令安装 Podman:

接下来,为容器创建一个新文件夹并切换到该目录。

TensorFlow 模型的 REST API

下一步是为机器学习模型创建 REST API。这个github 仓库

[4]

包含一个预训练模型,以及能让 REST API 工作的设置。

使用以下命令在 目录中克隆它:

prediction.py 和 ml_model/

prediction.py

[5]

能进行 Tensorflow 预测,而 20x20x20 神经网络的权重位于文件夹ml_model/

[6]

中。

swagger.yaml

swagger.yaml

[7]

使用Swagger规范

[8]

定义 Connexion 库的 API。此文件包含让你的服务器提供输入参数验证、输出响应数据验证、URL 端点定义所需的所有信息。

额外地,Connexion 还将给你提供一个简单但有用的单页 Web 应用,它演示了如何使用 Javascript 调用 API 和更新 DOM。

server.py 和 requirements.txt

server.py

[9]

定义了启动 Connexion 服务器的入口点。

requirements.txt

[10]

定义了运行程序所需的 python 包。

容器化!

为了让 Podman 构建映像,请在上面的准备步骤中创建的 目录中创建一个名为 的新文件:

接下来,使用以下命令构建容器镜像:

运行容器

随着容器镜像的构建和准备就绪,你可以使用以下命令在本地运行它:

在 Web 浏览器中输入http://0.0.0.0:5000/ui访问 Swagger/Connexion UI 并测试模型:

当然,你现在也可以在应用中通过 REST API 访问模型。

via:https://fedoramagazine.org/create-containerized-machine-learning-model/

作者:Sven Bösiger

[13]

选题:lujun9972译者:geekpi校对:wxy

本文由LCTT原创编译,Linux中国荣誉推出

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181216B0CHXI00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券