首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >大模型底层如何实现并行?

大模型底层如何实现并行?

提问于 2024-07-22 14:41:48
回答 0关注 0查看 17

现在市面上的大模型如kimi、chatgpt这些,他们是如何实现在线同时回答多个用户的问题的,也就是底层是如何实现并行的。假如我只有一张GPU,我如何设计来实现在不开启多个实例的前提下同时回答多个问题?

回答

和开发者交流更多问题细节吧,去 写回答
相关文章

相似问题

相关问答用户
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档