前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Ai 模型并行运行实践方案

Ai 模型并行运行实践方案

作者头像
为为为什么
发布2022-08-05 15:52:59
4990
发布2022-08-05 15:52:59
举报
文章被收录于专栏:又见苍岚又见苍岚

本文记录并行Ai的一种实践路线。

背景

  • 当遇到一个任务需要多个Ai模型分别完成时,串行执行Ai可能不是最好的方法,总无法发挥GPU的最大利用率
  • 现有平台少有并行推断的相关信息
  • 尝试搭建一个服务式的并行Ai执行框架

思路流程

  • 构建网络服务,在网络服务中初始化模型
  • 留出infer接口作为服务器备用
  • 客户端多线程向服务器提供请求,实现Ai并行执行

技术方案

  • python平台
  • 使用flask搭建微服务框架
  • 将训练好的模型在服务器中初始化,留出infer接口,注册在路由中
  • 服务端建好服务后 while True 在那呆着
  • 客户端将测试数据作为 post 请求向指定ip 端口 路由发送请求
  • 服务器收到数据进行Ai推断得到结果
  • pytorch并行在Linux下可以多进程,但Win下会报内存或重复加载的错误
  • 使用多线程向服务器提供请求的方式实现并行
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021年8月3日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 背景
  • 思路流程
  • 技术方案
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档